Recrutement INFOGENE

Data Engineer Senior H/F - INFOGENE

  • Neuilly-sur-Seine - 92
  • CDI
  • INFOGENE
Publié le 23 janvier 2026
Postuler sur le site du recruteur

Les missions du poste

Rejoignez l'équipe d'Infogene, ESN experte des données critiques et accélérez votre carrière en travaillant avec nous sur des projets innovants pour des clients en pleine croissance dans différents secteurs (santé, assurances / mutuelles, énergie, environnement, retail et luxe.)

Avec plus de 10 ans d'existence, 700 collaborateurs talentueux et un chiffre d'affaires en 2023 de 72 millions d'euros, Infogene met un point d'honneur à conserver l'agilité et la proximité d'une startup avec les avantages d'une société établie dans l'écosystème IT.

Nous sommes présents en Ile de France, à Lille, Lyon, Bordeaux et Lausanne.Contexte du poste

Nous recherchons un Data Engineer expérimenté pour rejoindre notre équipe Data & Cloud. Vous jouerez un rôle clé dans la conception d'architectures data robustes, l'industrialisation des pipelines, l'optimisation des performances BigQuery et la mise en place de solutions IA/ML.

Vous interviendrez dans un environnement GCP-first, moderne, orienté automatisation et bonnes pratiques DevOps.

1. Compétences techniques attendues

Architecture Système & Cloud

- Excellente maîtrise de Google Cloud Platform (GCP)
- Containerisation & architectures serverless
- Maîtrise des patterns d'intégration d'entreprise

DevOps & Infrastructure as Code

- Terraform (développement de modules, automatisation, paramétrages avancés)
- CI/CD : GitHub Actions, pipelines automatisés
- Maîtrise de Git / GitHub

Développement d'API

- Conception & développement d'API REST
- Expérience sur Apigee, Cloud Run, FastAPI

Architectures orientées événements

- Mise en place de flux événementiels : GCP Pub/Sub
- Connaissance de Kafka

Modélisation de données

- Modèles en étoile (Star Schema)
- Modèles en flocon (Snowflake Schema)
- Modélisation dimensionnelle avancée

BigQuery - Expertise avancée

- Écriture et optimisation de procédures stockées complexes
- Optimisation des performances & des coûts
- Optimisation DirectQuery pour outils BI

Orchestration & pipelines de données

- Cloud Workflows, EventArc, Cloud Run
- Scripting Python

ML / IA / GenAI

- Algorithmes classiques, MLOps
- Expérience sur Vertex AI (pipelines, modèle, tuning)
- Compréhension des réseaux neuronaux (encodeur/décodeur)
- Connaissance de concepts LLM, RAG, MCP

BI & Analytics

- Looker, modèles LookML

Qualité & Observabilité

- Expérience en qualification, monitoring & observabilité des données

Méthodologies & Leadership

- Travail en équipes Agile / Scrum
- Mentorat & accompagnement de développeurs

Atouts (Nice to have)

- Compétences WebApp : JavaScript / React
- Certification GCP Data Engineer ou Cloud Architect

Postuler sur le site du recruteur

Ces offres pourraient aussi vous correspondre.

Parcourir plus d'offres d'emploi