Des pipelines data fiables et scalables au service de vos analytics
Consultant ETL expert en Suisse, spécialisé dans le développement de pipelines data modernes avec dbt, Apache Airflow et les outils d'intégration cloud-native. Je conçois et implémente des workflows ETL/ELT de niveau production qui transforment les données brutes en actifs analytiques. De la modernisation de pipelines legacy aux architectures streaming temps réel, je livre des solutions d'intégration fiables, observables et conçues pour scaler.
Expertise stack ELT moderne (dbt, Airflow, Dagster, Prefect)
Pipelines streaming temps réel avec Kafka et Spark Streaming
Frameworks qualité des données avec tests et validation automatisés
Monitoring et alerting pour SLAs de disponibilité 99.9%
Traitement de 50M+ enregistrements/jour en production
Pipelines cloud-native sur AWS, Azure et GCP
Modernisation ETL legacy (Informatica, SSIS, Talend vers stack moderne)
Traitement batch et micro-batch optimisé en coûts
Basé en Suisse, expérience en données bancaires et pharmaceutiques
Conception et construction de pipelines ETL/ELT robustes avec dbt, Airflow et services cloud-native. Transformations modulaires, testables et versionnées, faciles à maintenir et à faire évoluer.
Connexion de sources disparates — APIs, bases de données, plateformes SaaS, fichiers et sources streaming — en une plateforme unifiée. CDC, chargement incrémental et traitement idempotent pour une intégration fiable à toute échelle.
Mise en place et optimisation de projets dbt avec structure de dossiers best-practice, modèles SQL modulaires, tests automatisés, documentation et pipelines CI/CD. Transformez votre entrepôt en plateforme analytique auto-documentée.
Pipelines temps réel avec Kafka, Spark Streaming ou services cloud-native (Kinesis, Pub/Sub). Architectures événementielles pour les cas nécessitant une latence sub-seconde : détection de fraude, dashboards live.
Monitoring complet des pipelines : fraîcheur des données, validation des volumes, détection de drift de schéma et alerting automatisé. Dashboards pour une visibilité totale sur la santé des pipelines et le respect des SLAs.
Modernisation des systèmes ETL legacy (Informatica, SSIS, Talend, procédures stockées) vers des architectures cloud-native. Évaluation, design cible et migration par phases avec validation parallèle pour zéro perte de données.