Recrutement ALTEN

DevOps Senior - Data Platform - Kafka - Gcp H/F - ALTEN

  • Boulogne-Billancourt - 92
  • CDI
  • ALTEN
Publié le 6 mars 2026
Postuler sur le site du recruteur

Les missions du poste

Alten, la maison des ingénieurs, qui sommes-nous ?

Fort de plus de 35 ans d'expériences, le groupe Alten exerce dans plus de 30 pays. Cette couverture mondiale, nos 54 000 collaborateurs, composés à 88 % d'ingénieurs, nous permettent d'être un groupe international et leader de son marché.

Soucieux du bien-être de nos collaborateurs, cela nous a permis, cette année et pour la 12ème fois consécutive, d'être labélisé Top Employer. L'obtention de ce label s'appuie sur un audit du Top Employer Institute qui passe en revue un référentiel de 600 bonnes pratiques RH, garantissant le bien-être de chacun.

Pourquoi nous ?

Une démarche RSE forte : nos ingénieurs travaillent sur des projets qui contribuent à un avenir meilleur. ALTEN Group est signataire et membre de plusieurs programmes en faveur de l'environnement (Planet Tech'Care, La Charte de l'ingénierie, Climate Ambition Accelerator).

Les compétences de nos ingénieurs au coeur des préoccupations : la montée en compétences de chacun est optimisée tout au long de votre parcours carrière.

Culture d'entreprise élevée : Événements fédérateurs, actions solidaires, webinaires innovation, challenges variés... Faites l'expérience d'un environnement stimulant où vous pourrez partager vos talents et vos passions.Nous recherchons un DevOps Senior spécialisé Data Platform pour rejoindre une équipe en charge d'une plateforme Data centralisée visant à casser les silos d'information et à permettre l'exploitation des données en temps réel via API dans l'ensemble du système d'information.

Cette plateforme permet de simplifier et accélérer les traitements analytiques, tout en faisant converger les usages opérationnels et décisionnels autour d'une architecture Data Centric moderne et scalable.

Vos missions

Plateforme Data & Streaming

- Participer à la mise en place et l'évolution des pipelines de données
- Garantir la fiabilité, la performance et la scalabilité de la plateforme
- Assurer l'industrialisation des traitements data en environnement cloud

Kafka & Streaming

- Administrer et optimiser Apache Kafka en production
- Configurer :
- partitionnement
- réplication
- compaction
- gestion des topics et offsets
- Assurer le tuning des performances
- Mettre en oeuvre la sécurisation Kafka (TLS, SASL, ACL)

Cloud & Containerisation

- Déployer et exploiter les solutions sur Google Cloud Platform
- Administrer et optimiser des clusters Kubernetes
- Gérer le déploiement et la scalabilité des applications data

DevOps & Industrialisation

- Automatiser les déploiements et pipelines CI/CD
- Mettre en place les bonnes pratiques DevOps
- Améliorer la résilience et la supervision des services

Monitoring & Observabilité

- Mettre en place la supervision des pipelines data
- Utiliser Prometheus et Grafana
- Analyser les performances et résoudre les incidents

Collaboration technique

- Travailler étroitement avec :
- équipes Data
- équipes Infrastructure
- équipes Développement
- Participer aux pratiques Agile / Scrum

Environnement technique

Cloud

- GCP
- Google Kubernetes Engine (GKE)
- Cloud Storage
- Cloud SQL
- Cloud Monitoring

Streaming / Data

- Apache Kafka

Containerisation / Orchestration

- Kubernetes

Monitoring

- Prometheus
- Grafana

DevOps

- CI/CD
- Git

Scripting

- Bash
- Python

Méthodologie

- Agile / Scrum

Le profil recherché

Profil recherché

- Bac +5 en informatique ou équivalent
- Plus de 7 ans d'expérience en environnement DevOps
- Expertise solide sur Apache Kafka en production
- Expérience confirmée sur Kubernetes
- Bonne maîtrise de Google Cloud Platform

Serait un plus :

- Expérience dans un environnement Data Platform / Big Data
- Expérience dans le retail ou la grande distribution

Postuler sur le site du recruteur

Ces offres pourraient aussi vous correspondre.

Parcourir plus d'offres d'emploi