Data Engineer H/F - Groupe Créative
- Nanterre - 92
- CDI
- Groupe Créative
Les missions du poste
Nous sommes experts en conseil et production de softwares (conseil, numérique responsable, design, réalisation de logiciel métiers, applications web et mobiles, systèmes embarqués & industriels) depuis 2008, sommes présents sur le territoire national avec nos 7 agences.
Ce qui nous anime ? Le sur mesure, être proche de nos clients et de nos collaborateurs pour répondre à leurs besoins avec justesse, de manière responsable et sécurisée.
Nous sommes, aujourd'hui 350 collaborateurs passionnées par la tech, l'innovation est notre moteur et la curiosité une force. Notre activité s'organise en 4 pôles : Conseil, Usages & Design, Production Logicielle et Recherche et Innovation.
Pourquoi nous rejoindre ?
Nous sommes des femmes et des hommes de conviction et plaçons l'humain au centre de nos préoccupations.
Participer à la création de solutions sur mesure qui façonnent l'avenir de nos clients
Nous sommes à l'écoute de tous nos collaborateurs valorisants, leurs idées et leurs perspectives
Travailler dans une ambiance stimulante, favorisant les échanges, le partage des connaissances et l'intelligence collective, le tout dans un environnement multiculturel.
Bénéficier d'une forte autonomie au sein d'une équipe soudée et motivéeNous recherchons un Data Engineer Senior afin d'accompagner le pôle Data Services de notre client dans la conception, l'industrialisation et l'évolution de ses solutions data.
Le prestataire interviendra sur les sujets d'architecture, de modélisation, d'optimisation des pipelines et contribuera activement à la stratégie Lakehouse de l'entreprise.
Description:
Data Engineer/Architecte Senior
Le prestataire devra :
-Concevoir, développer et optimiser des pipelines de données à grande échelle
-Mettre en oeuvre des flux batch, streaming et ingestion via API
-Structurer les transformations selon un modèle Médaillon (Bronze / Silver / Gold)
-Développer et industrialiser les pipelines via DBT Spark et Iceberg
-Contribuer à l'évolution de l'architecture Lakehouse
Livrables:
-Déployer et maintenir les pipelines dans un environnement cloud (AWS ou équivalent)
-Orchestrer les workflows ETL/ELT via Airflow
-Mettre en oeuvre l'Infrastructure as Code (Terraform)
-Exécuter les traitements dans des environnements conteneurisés (Docker, Kubernetes)
-Garantir la disponibilité, la supervision et l'observabilité des traitements
-Participer à la gestion des incidents et à l'amélioration continue
-Définir et mettre en oeuvre les règles de qualité des données (tests, validation, contrôles automatisés)
-Documenter les architectures, pipelines et règles métier
-Garantir la conformité des flux, notamment dans le cadre RGPD
Le profil recherché
Compétences:
-8 années minimum d'expérience en Data Engineering
-Développement SPARK
-Une maîtrise avancée des architectures Big Data et Lakehouse
-Expertise sur Spark, DBT, Iceberg, AWS et Terraform.
-Maitrise des services AWS (Glue, EMR, S3, ...)
-Connaissance de Trino/Starburst
-Une forte capacité d'analyse et de compréhension des enjeux métiers
-Une aptitude démontrée à accompagner des profils juniors
-Rigueur, autonomie et culture de l'amélioration continue
Compétences clés:
Obligatoire
AWS Big Data Python