Recrutement Capgemini

Expert Data Engineer H/F - Capgemini

  • Issy-les-Moulineaux - 92
  • CDI
  • Télétravail accepté
  • Capgemini
Publié le 6 mars 2026
Postuler sur le site du recruteur

Les missions du poste

Chez Capgemini Invent, nous croyons que l'innovation est le moteur du changement . En tant que consultants en transformation digitale , nous combinons nos capacités stratégiques , créatives et scientifiques , en collaborant étroitement avec nos clients pour leur fournir des solutions de pointe. Rejoignez nous pour conduire une transformation adaptée aux défis d'aujourd'hui et de demain.Vos missions

*
Création de Data Pipeline : construire des solutions à l'état de l'art pour la collecte, l'organisation et la modélisation des données, répondant aux exigences de forte volumétrie, et faciliter leur utilisation optimale par les analystes et data scientists ;
*
Déploiement Infrastructure et DevOps :déploiement grâce à des outils d'infrastructure-as-code et d'intégration et de déploiement continus d'infrastructures complexes sur cloud provider ou on premise. Déploiement de stacks data incluant notamment des stockages de données brutes / structurées.
*
Développement Full Stack et Exposition de modèles IA : conception, développement et containerisation d'applications back-end en REST API embarquant de la data ou de l'IA. Développement de la logique applicative en accord avec les spécificités métier et techniques de portails applicatifs exposant les modèles et/ou les données processées.
*
Architecture Data : Conception et design de la stack d'architecture data complète, mettant en avant et répondant aux problématiques de sécurité, scalabilité, auditabilité et disponilité des données et systèmes applicatifs joints.

Le profil recherché

Votre profil
*
Titulaire d'un diplôme d'ingénieur ou d'un master (Bac +5) en informatique ou en sciences des données.
*
Connaissances en processing de données (Apache Spark, dbt, Spark, Flink), orchestration (Airflow, Prefect, Dagster), stockage de données (base de données, Data Lake, Data Warehouse) et transport de donnée (batch et streaming)
*
Expérience de programmation (Python, Scala, Java, Javascript)
*
Maîtrise d'un ou plusieurs Cloud Providers (AWS, GCP, Azure) et connaissances des plateformes de données (Databricks, Snowflake, Palantir)
*
Bilingue anglais/français, mobile, curieux, et adaptable.
*
Enthousiaste à l'idée d'évoluer dans un milieu stimulant, avec un fort esprit d'équipe, et des compétences analytiques.

Postuler sur le site du recruteur

Ces offres pourraient aussi vous correspondre.

Parcourir plus d'offres d'emploi