Data Engineer Gcp H/F - ALTEN
- Boulogne-Billancourt - 92
- CDI
- ALTEN
Les missions du poste
À propos d'ALTEN
Leader mondial de l'ingénierie et du conseil en technologies, ALTEN accompagne depuis plus de 35 ans les grands acteurs de l'Industrie, de l'IT, du Digital et des Télécoms dans leurs projets de transformation à forte valeur ajoutée.
Présent dans plus de 30 pays, ALTEN compte aujourd'hui plus de 57 000 collaboratrices et collaborateurs à travers le monde, dont une forte expertise sur les environnements critiques, souverains et à haute exigence de sécurité, notamment dans les secteurs Défense, Aéronautique et Banque.
Dans un contexte de transformation digitale accélérée, nos clients - grands comptes issus de la banque, du retail, de l'industrie ou encore du luxe - investissent massivement dans la valorisation de leurs données pour piloter leur performance et innover.
Au coeur de ces enjeux, la donnée est devenue un actif stratégique, utilisée pour optimiser les processus métiers, personnaliser l'expérience client et alimenter des modèles avancés (BI, IA, Machine Learning).
En rejoignant nos équipes, vous interviendrez sur des plateformes data modernes et cloud-native (GCP / Snowflake), manipulant des volumes de données conséquents dans des environnements exigeants.
Vous serez intégré(e) à des équipes agiles et pluridisciplinaires (Data Engineers, Data Analysts, Data Scientists), où vous contribuerez à la construction de pipelines de données robustes, scalables et industrialisés.
Ce poste vous permettra de :
- Travailler sur des cas d'usage concrets à forte valeur business
- Monter en compétence sur les technologies data les plus demandées du marché
- Avoir un impact direct sur les décisions stratégiques des clients
- Évoluer dans un environnement stimulant, orienté innovation et amélioration continue
En tant que Data Engineer, vous êtes un acteur clé de la chaîne de valeur data, garant de la qualité, de la fiabilité et de l'accessibilité des données.
- Concevoir et développer des pipelines de données robustes sur GCP
- Implémenter des traitements batch et streaming (Dataflow, Pub/Sub)
- Modéliser et optimiser les datasets dans BigQuery
- Participer à la mise en place d'architectures data scalables
- Industrialiser les flux via CI/CD et Terraform
- Assurer la qualité et la gouvernance des données
- Collaborer avec Data Scientists et équipes métiers
Le profil recherché
Stack technique
- Cloud : GCP (BigQuery, Dataflow, Pub/Sub, Composer)
- Langages : Python, SQL
- Frameworks : Spark / PySpark
- Orchestration : Airflow / Composer
- Infra : Terraform, CI/CD
Profil recherché
- Bac +5 en informatique / data
- Expérience : 3 ans minimum en data engineering
- Bonne maîtrise de l'écosystème GCP
- Expérience en industrialisation de pipelines data
- Sensibilité aux enjeux data à grande échelle