Référent Big Data H/F - Ascalium
- Guyancourt - 78
- Intérim
- Ascalium
Les missions du poste
Créé en 2008, le Groupe Ascalium est un acteur global du recrutement spécialisé dans le placement de freelances (#WeAreFreelance) et le portage salarial (#WeArePortage).
En 16 ans, plus de 5 000 consultants ont fait confiance au groupe et près de 100 clients ont été satisfaits.
Ascalium accompagne également ses clients dans leur recherche de compétences en CDI.VOTRE RÔLE:
- Vous rejoignez une direction Data en pleine transformation, au coeur d'un programme de modernisation des plateformes Big Data vers des architectures cloud (AWS ou GCP).
- Votre mission : construire, fiabiliser et faire évoluer l'infrastructure Data tout en accompagnant les équipes techniques vers les nouveaux standards.
VOS RESPONSABILITES PRINCIPALES:
- Accompagner la migration des environnements Hadoop / Cloudera on-prem vers le cloud public.
- Concevoir et industrialiser les pipelines de données batch et streaming (Spark, Kafka, Flink).
- Déployer et maintenir une plateforme Data performante et robuste (Data Lake / Data Mesh).
- Agir en référent technique : partage de bonnes pratiques, revue de code, accompagnement des équipes.
- Assurer le suivi en production : monitoring, automatisation, amélioration continue.
CONTEXTE TECHNIQUE ET ENVIRONNEMENT:
- Vous intégrerez une équipe de +8 personnes : Data Engineers, CloudOps, Architectes et Experts Sécurité, travaillant en mode Agile (Scrum / Kanban).
- L'environnement est exigeant et collaboratif, avec une forte culture du delivery de qualité et du partage technique.
Ce poste combine :
- Des missions Build + Run : conception, industrialisation, supervision et support.
- Des environnements multi-clusters à haute volumétrie (plusieurs To de données).
- Des livrables structurants : frameworks d'ingestion et de monitoring, documentation, procédures d'exploitation.
- Une collaboration internationale nécessitant un bon niveau d'anglais technique.
Le profil recherché
EXPERIENCE
- +7 ans d'expérience en ingénierie Big Data sur des environnements complexes et critiques.
- Solide expérience des écosystèmes distribués (Cloudera, Hadoop, Spark).
- Participation à des projets de migration vers le cloud (AWS ou GCP).
- Double compétence Build & Run (architecture, déploiement, supervision).
- Habitude de contextes grands comptes, multi-projets et à forte volumétrie.
- Capacité à agir comme référent technique ou lead (coaching, cadrage, validation technique).
COMPETENCES TECHNIQUES:
- Big Data & Data Engineering : Cloudera, Kafka, Spark, Flink, NiFi, Airflow, Trino / Starburst.
- Cloud : AWS (EMR, MSK, S3, Glue) ou GCP (DataProc, BigQuery, Dataflow, Cloud Storage).
- Infrastructure & IaC : Linux (niveau admin), Kubernetes, Terraform.
- CI/CD & automatisation : GitLab CI, ArgoCD, GitOps, Helm.
- Langages : Scala, Java, Python.
- Monitoring & observabilité : Prometheus, Grafana, ELK, AlertManager.
- Méthodologies : Agile / Scrum, ITIL v4 (CERTIFICATION ITIL 4 OBLIGATOIRE).
- Langue : Anglais professionnel indispensable.