DevOps Senior - Data Platform - Kafka - Gcp H/F - ALTEN
- Boulogne-Billancourt - 92
- CDI
- ALTEN
Les missions du poste
Alten, la maison des ingénieurs, qui sommes-nous ?
Fort de plus de 35 ans d'expériences, le groupe Alten exerce dans plus de 30 pays. Cette couverture mondiale, nos 54 000 collaborateurs, composés à 88 % d'ingénieurs, nous permettent d'être un groupe international et leader de son marché.
Soucieux du bien-être de nos collaborateurs, cela nous a permis, cette année et pour la 12ème fois consécutive, d'être labélisé Top Employer. L'obtention de ce label s'appuie sur un audit du Top Employer Institute qui passe en revue un référentiel de 600 bonnes pratiques RH, garantissant le bien-être de chacun.
Pourquoi nous ?
Une démarche RSE forte : nos ingénieurs travaillent sur des projets qui contribuent à un avenir meilleur. ALTEN Group est signataire et membre de plusieurs programmes en faveur de l'environnement (Planet Tech'Care, La Charte de l'ingénierie, Climate Ambition Accelerator).
Les compétences de nos ingénieurs au coeur des préoccupations : la montée en compétences de chacun est optimisée tout au long de votre parcours carrière.
Culture d'entreprise élevée : Événements fédérateurs, actions solidaires, webinaires innovation, challenges variés... Faites l'expérience d'un environnement stimulant où vous pourrez partager vos talents et vos passions.Nous recherchons un DevOps Senior spécialisé Data Platform pour rejoindre une équipe en charge d'une plateforme Data centralisée visant à casser les silos d'information et à permettre l'exploitation des données en temps réel via API dans l'ensemble du système d'information.
Cette plateforme permet de simplifier et accélérer les traitements analytiques, tout en faisant converger les usages opérationnels et décisionnels autour d'une architecture Data Centric moderne et scalable.
Vos missions
Plateforme Data & Streaming
- Participer à la mise en place et l'évolution des pipelines de données
- Garantir la fiabilité, la performance et la scalabilité de la plateforme
- Assurer l'industrialisation des traitements data en environnement cloud
Kafka & Streaming
- Administrer et optimiser Apache Kafka en production
- Configurer :
- partitionnement
- réplication
- compaction
- gestion des topics et offsets
- Assurer le tuning des performances
- Mettre en oeuvre la sécurisation Kafka (TLS, SASL, ACL)
Cloud & Containerisation
- Déployer et exploiter les solutions sur Google Cloud Platform
- Administrer et optimiser des clusters Kubernetes
- Gérer le déploiement et la scalabilité des applications data
DevOps & Industrialisation
- Automatiser les déploiements et pipelines CI/CD
- Mettre en place les bonnes pratiques DevOps
- Améliorer la résilience et la supervision des services
Monitoring & Observabilité
- Mettre en place la supervision des pipelines data
- Utiliser Prometheus et Grafana
- Analyser les performances et résoudre les incidents
Collaboration technique
- Travailler étroitement avec :
- équipes Data
- équipes Infrastructure
- équipes Développement
- Participer aux pratiques Agile / Scrum
Environnement technique
Cloud
- GCP
- Google Kubernetes Engine (GKE)
- Cloud Storage
- Cloud SQL
- Cloud Monitoring
Streaming / Data
- Apache Kafka
Containerisation / Orchestration
- Kubernetes
Monitoring
- Prometheus
- Grafana
DevOps
- CI/CD
- Git
Scripting
- Bash
- Python
Méthodologie
- Agile / Scrum
Le profil recherché
Profil recherché
- Bac +5 en informatique ou équivalent
- Plus de 7 ans d'expérience en environnement DevOps
- Expertise solide sur Apache Kafka en production
- Expérience confirmée sur Kubernetes
- Bonne maîtrise de Google Cloud Platform
Serait un plus :
- Expérience dans un environnement Data Platform / Big Data
- Expérience dans le retail ou la grande distribution