Data Engineer Senior H/F - Tech4KIN
- Issy-les-Moulineaux - 92
- CDI
- Tech4KIN
Les missions du poste
À propos de Tech4KIN
Tech4KIN est un cabinet de conseil nouvelle génération, indépendant et engagé, qui intervient à la croisée du design produit, de la data et du software engineering.
Nous accompagnons nos clients dans leurs transformations digitales, en intervenant sur l'ensemble de la chaîne de valorisation de la donnée brute : de la stratégie à la mise en oeuvre opérationnelle.
Pourquoi nous rejoindre ?
- Un cabinet à taille humaine, indépendant, où chaque voix compte.
- Des projets à impact positif, concrets et utiles à la société.
- Une culture de transparence, responsabilité et autonomie.
- La possibilité de construire, pas seulement d'exécuter.
- Une équipe engagée, passionnée, bienveillante et exigeante.À propos du poste
En tant que Data Engineer / Data DevOps au sein du Centre d'Excellence Data & IA de notre client, grand groupe du secteur de l'énergie, vous participerez à la conception, l'évolution et l'industrialisation de la Plateforme Data Groupe. Basé à La Défense, vous rejoindrez les équipes responsables de l'infrastructure data hybride On Premise & GCP, au coeur des enjeux stratégiques de valorisation de la donnée, de modernisation des SI et de fiabilité des chaînes data à grande échelle. Votre mission contribuera directement à la performance du SI, à l'industrialisation des usages data et à l'adoption des bonnes pratiques au sein des DSI métiers du Groupe.
Responsabilités principales :
- Concevoir et implémenter des services et solutions Data sur infrastructures On Premise et GCP, incluant ingestion, stockage, traitement, orchestration et automatisation.
- Développer, optimiser et documenter les pipelines et architectures distribuées : Airflow / Composer, Kafka, Spark, Trino, BigQuery, DataProc.
- Industrialiser les plateformes techniques via des pratiques DevOps : GitLab CI/CD, GitOps, Helm, Infrastructure as Code (Terraform).
- Contribuer à la mise à disposition automatisée des environnements data, en assurant les exigences de sécurité, résilience, robustesse et maintenabilité.
- Réaliser des revues techniques (solutions, code) et proposer systématiquement des axes d'amélioration concrets et réalistes.
- Produire une documentation claire, exhaustive et opérationnelle : best practices, guides techniques, documents de déploiement et d'exploitation.
- Participer activement aux ateliers, rituels et revues dans le cadre de la méthodologie Agile SAFe.
- Contribuer au transfert de compétences auprès des équipes Ops, afin de garantir leur autonomie sur le déploiement et le run des solutions.
- Réaliser des benchmarks, tests de performance et études techniques pour orienter les choix d'architecture et les patterns d'implémentation.
Le profil recherché
Profil recherché :
Formation & expérience
- Master en informatique, data engineering ou discipline équivalente.
- Minimum 3 à 5 ans d'expérience en Data Engineering dans des environnements distribués ou hybrides.
Compétences techniques clés
On Premise & Kubernetes
- Kubernetes / OpenShift (niveau avancé)
- Docker, GitOps, Helm
- Airflow, Kafka / Kafka Connect
- Spark, Trino, PostgreSQL
- S3 / Object Storage
Cloud GCP
- BigQuery, DataProc, PubSub, Cloud Run
- Composer (Airflow GCP)
- Cloud SQL, GCS
- Terraform (niveau avancé)
DevOps & Industrialisation
- Git / GitLab
- CI/CD (GitLab CI)
- Infrastructure as Code
- Sécurité, résilience, automatisation
Compétences transverses
- Connaissance des méthodes Agile SAFe.
- Excellent sens de la documentation, de la transmission de connaissances et du support technique.
- Capacité à analyser les besoins métiers et à proposer des solutions techniques pertinentes.
Savoir-être :
- Forte autonomie et capacité à prendre en charge des sujets complexes.
- Rigueur, sens du détail et exigence sur la qualité.
- Proactivité, sens du service et capacité à accompagner les utilisateurs.
- Bon relationnel, posture de facilitateur, sens du collectif.
- Capacité à s'adapter à un environnement exigeant, multi-équipe et à fort enjeu.