Basé à: Genève, Suisse

Consultant ETL en Suisse | Expert Pipelines Data & Intégration

Des pipelines data fiables et scalables au service de vos analytics

Consultant ETL expert en Suisse, spécialisé dans le développement de pipelines data modernes avec dbt, Apache Airflow et les outils d'intégration cloud-native. Je conçois et implémente des workflows ETL/ELT de niveau production qui transforment les données brutes en actifs analytiques. De la modernisation de pipelines legacy aux architectures streaming temps réel, je livre des solutions d'intégration fiables, observables et conçues pour scaler.

Pourquoi Me Choisir

Expertise stack ELT moderne (dbt, Airflow, Dagster, Prefect)

Pipelines streaming temps réel avec Kafka et Spark Streaming

Frameworks qualité des données avec tests et validation automatisés

Monitoring et alerting pour SLAs de disponibilité 99.9%

Traitement de 50M+ enregistrements/jour en production

Pipelines cloud-native sur AWS, Azure et GCP

Modernisation ETL legacy (Informatica, SSIS, Talend vers stack moderne)

Traitement batch et micro-batch optimisé en coûts

Basé en Suisse, expérience en données bancaires et pharmaceutiques

Services Proposés

Développement de pipelines

Conception et construction de pipelines ETL/ELT robustes avec dbt, Airflow et services cloud-native. Transformations modulaires, testables et versionnées, faciles à maintenir et à faire évoluer.

Intégration de données

Connexion de sources disparates — APIs, bases de données, plateformes SaaS, fichiers et sources streaming — en une plateforme unifiée. CDC, chargement incrémental et traitement idempotent pour une intégration fiable à toute échelle.

Implémentation dbt

Mise en place et optimisation de projets dbt avec structure de dossiers best-practice, modèles SQL modulaires, tests automatisés, documentation et pipelines CI/CD. Transformez votre entrepôt en plateforme analytique auto-documentée.

Traitement streaming

Pipelines temps réel avec Kafka, Spark Streaming ou services cloud-native (Kinesis, Pub/Sub). Architectures événementielles pour les cas nécessitant une latence sub-seconde : détection de fraude, dashboards live.

Monitoring & Observabilité

Monitoring complet des pipelines : fraîcheur des données, validation des volumes, détection de drift de schéma et alerting automatisé. Dashboards pour une visibilité totale sur la santé des pipelines et le respect des SLAs.

Migration de pipelines legacy

Modernisation des systèmes ETL legacy (Informatica, SSIS, Talend, procédures stockées) vers des architectures cloud-native. Évaluation, design cible et migration par phases avec validation parallèle pour zéro perte de données.

Questions Fréquentes

Prêt à construire des pipelines data fiables ?