Zuverlässige, skalierbare Datenpipelines für Ihre Analytik
ETL-Experte in der Schweiz, spezialisiert auf moderne Datenpipeline-Entwicklung mit dbt, Apache Airflow und Cloud-nativen Integrationstools. Ich entwerfe und implementiere produktionsreife ETL/ELT-Workflows, die Rohdaten in analytikfähige Assets transformieren. Von der Legacy-Pipeline-Modernisierung bis zu Echtzeit-Streaming-Architekturen liefere ich Datenintegrationslösungen, die zuverlässig, beobachtbar und skalierbar sind.
Moderne ELT-Stack-Expertise (dbt, Airflow, Dagster, Prefect)
Echtzeit-Streaming-Pipelines mit Kafka und Spark Streaming
Datenqualitäts-Frameworks mit automatisierten Tests und Validierung
Pipeline-Monitoring und Alerting für 99.9% Uptime-SLAs
Verarbeitung von 50M+ Datensätzen täglich in Produktion
Cloud-native Pipelines auf AWS, Azure und GCP
Legacy-ETL-Modernisierung (Informatica, SSIS, Talend zum modernen Stack)
Kostenoptimierte Batch- und Micro-Batch-Verarbeitung
In der Schweiz ansässig, Erfahrung mit Bank- und Pharmadaten
Design und Aufbau robuster ETL/ELT-Pipelines mit dbt, Airflow und Cloud-nativen Services. Modulare, testbare und versionskontrollierte Datentransformationen, die einfach zu warten und zu erweitern sind.
Verbindung unterschiedlicher Datenquellen — APIs, Datenbanken, SaaS-Plattformen, Dateien und Streaming-Quellen — zu einer einheitlichen Datenplattform. CDC, inkrementelles Laden und idempotente Verarbeitung für zuverlässige Integration.
Einrichtung und Optimierung von dbt-Projekten mit Best-Practice-Ordnerstrukturen, modularen SQL-Modellen, automatisierten Tests, Dokumentationsgenerierung und CI/CD-Pipelines für eine selbstdokumentierende Analyseplattform.
Echtzeit-Datenpipelines mit Kafka, Spark Streaming oder Cloud-nativen Diensten wie Kinesis und Pub/Sub. Event-gesteuerte Architekturen für Anwendungsfälle mit Sub-Sekunden-Latenz wie Betrugserkennung und Live-Dashboards.
Umfassendes Monitoring für Datenpipelines: Datenaktualität, Volumenvalidierung, Schema-Drift-Erkennung und automatisiertes Alerting. Dashboards für volle Transparenz über Pipeline-Gesundheit und SLA-Einhaltung.
Modernisierung von Legacy-ETL-Systemen (Informatica, SSIS, Talend, gespeicherte Prozeduren) zu Cloud-nativen Architekturen. Workload-Bewertung, Zielarchitektur-Design und phasenweise Migration mit paralleler Validierung.