Expert Big Data - Data Engineer Senior H/F - Ascalium
- Guyancourt - 78
- Intérim
- Ascalium
Les missions du poste
Créé en 2008, le Groupe Ascalium est un acteur global du recrutement spécialisé dans le placement de freelances (#WeAreFreelance) et le portage salarial (#WeArePortage).
En 16 ans, plus de 5 000 consultants ont fait confiance au groupe et près de 100 clients ont été satisfaits.
Ascalium accompagne également ses clients dans leur recherche de compétences en CDI.VOTRE RÔLE :
- Vous rejoignez l'équipe Data/IA globale d'un grand groupe bancaire international (France + Singapour), en charge des plateformes Data critiques du groupe.
- Votre rôle : agir comme référent technique Big Data auprès des projets et des équipes CloudOps, sur un périmètre mêlant modernisation, migration, scalabilité & reliability.
Vous intervenez sur un double volet Build + Run :
- Build : architecture, configuration, tuning et automatisation des plateformes Big Data (on-prem + cloud).
- Run : support avancé N2/N3, industrialisation, réduction des incidents et amélioration continue.
- Un poste pour un expert hands-on, impliqué techniquement, à l'aise dans un environnement exigeant et international.
VOS RESPONSABILITES PRINCIPALES :
Build - Modernisation & migrations Data
- Participer au design et à la construction de nouvelles plateformes Data (on-prem Cloudera / Spark / Kafka & cloud AWS/GCP).
- Configurer, optimiser et sécuriser les environnements Big Data (Spark tuning, Kafka connecteurs...).
- Travailler avec les architectes et les CloudOps sur les architectures distribuées.
- Mettre en place des bonnes pratiques : backup, restauration, performance, haute dispo, PCA/PRA.
- Intégrer pipelines & automatisations (Terraform, GitOps, ArgoCD).
- Animer ateliers, documentation et transfert de compétences.
Run - Support N2/N3 & performance
- Résolution d'incidents techniques Big Data (HDFS, Spark, Kafka, Flink...).
- Support aux projets : création de topics Kafka, scheduling Airflow, jobs Spark, optimisation.
- Montée de version, patching, maintenance préventive.
- Participation aux astreintes (rotation).
- Amélioration continue & fiabilisation des environnements critiques.
- Application stricte du cadre ITIL V4 (incidents / problèmes / demandes).
Le profil recherché
EXPERIENCE :
- 5 à 10+ ans en Data Engineering / Big Data.
- Expérience en grands comptes ; bancaire ou finance très apprécié.
- Solide maîtrise des architectures distribuées & environnements critiques.
- Expérience Build + Run (avec astreinte).
COMPETENCES TECHNIQUES :
Big Data on-prem :
- Cloudera (HDFS, Yarn, Kerberos, Ranger)
- Spark (tuning, optimisation, clusters)
- Kafka (topics, partitions, retention, connect)
- Flink, NiFi, Airflow
- Trino / Starburst
Cloud AWS & GCP :
- AWS EMR, MSK, Glue, S3
- GCP DataProc, BigQuery, Dataflow, Cloud Storage
Ops & Infra :
- Linux avancé
- Kubernetes (déploiement, troubleshooting)
- Monitoring : Prometheus, Grafana, ELK
- Sauvegarde / restauration Big Data
Dév & automatisation :
- Scala, Python, Java
- Terraform, GitLab CI/CD, GitOps, ArgoCD
Méthodo & gouvernance :
- ITIL V4 (obligatoire)
- Pratique incidents / problèmes / changements
SOFT SKILLS :
- Excellente communication (équipes Paris, Singapour, architectes, projets).
- Rigueur extrême & sens du service.
- Capacité à vulgariser et accompagner les équipes.
- Autonomie, fiabilité, esprit analytique.
- À l'aise dans un contexte international.