Recrutement Ascalium

Expert Big Data - Data Engineer Senior H/F - Ascalium

  • Guyancourt - 78
  • Intérim
  • Ascalium
Publié le 18 novembre 2025
Postuler sur le site du recruteur

Les missions du poste

Créé en 2008, le Groupe Ascalium est un acteur global du recrutement spécialisé dans le placement de freelances (#WeAreFreelance) et le portage salarial (#WeArePortage).

En 16 ans, plus de 5 000 consultants ont fait confiance au groupe et près de 100 clients ont été satisfaits.

Ascalium accompagne également ses clients dans leur recherche de compétences en CDI.VOTRE RÔLE :

- Vous rejoignez l'équipe Data/IA globale d'un grand groupe bancaire international (France + Singapour), en charge des plateformes Data critiques du groupe.
- Votre rôle : agir comme référent technique Big Data auprès des projets et des équipes CloudOps, sur un périmètre mêlant modernisation, migration, scalabilité & reliability.

Vous intervenez sur un double volet Build + Run :

- Build : architecture, configuration, tuning et automatisation des plateformes Big Data (on-prem + cloud).
- Run : support avancé N2/N3, industrialisation, réduction des incidents et amélioration continue.
- Un poste pour un expert hands-on, impliqué techniquement, à l'aise dans un environnement exigeant et international.

VOS RESPONSABILITES PRINCIPALES :

Build - Modernisation & migrations Data

- Participer au design et à la construction de nouvelles plateformes Data (on-prem Cloudera / Spark / Kafka & cloud AWS/GCP).
- Configurer, optimiser et sécuriser les environnements Big Data (Spark tuning, Kafka connecteurs...).
- Travailler avec les architectes et les CloudOps sur les architectures distribuées.
- Mettre en place des bonnes pratiques : backup, restauration, performance, haute dispo, PCA/PRA.
- Intégrer pipelines & automatisations (Terraform, GitOps, ArgoCD).
- Animer ateliers, documentation et transfert de compétences.

Run - Support N2/N3 & performance

- Résolution d'incidents techniques Big Data (HDFS, Spark, Kafka, Flink...).
- Support aux projets : création de topics Kafka, scheduling Airflow, jobs Spark, optimisation.
- Montée de version, patching, maintenance préventive.
- Participation aux astreintes (rotation).
- Amélioration continue & fiabilisation des environnements critiques.
- Application stricte du cadre ITIL V4 (incidents / problèmes / demandes).

Le profil recherché

EXPERIENCE :

- 5 à 10+ ans en Data Engineering / Big Data.
- Expérience en grands comptes ; bancaire ou finance très apprécié.
- Solide maîtrise des architectures distribuées & environnements critiques.
- Expérience Build + Run (avec astreinte).

COMPETENCES TECHNIQUES :

Big Data on-prem :

- Cloudera (HDFS, Yarn, Kerberos, Ranger)
- Spark (tuning, optimisation, clusters)
- Kafka (topics, partitions, retention, connect)
- Flink, NiFi, Airflow
- Trino / Starburst

Cloud AWS & GCP :

- AWS EMR, MSK, Glue, S3
- GCP DataProc, BigQuery, Dataflow, Cloud Storage

Ops & Infra :

- Linux avancé
- Kubernetes (déploiement, troubleshooting)
- Monitoring : Prometheus, Grafana, ELK
- Sauvegarde / restauration Big Data

Dév & automatisation :

- Scala, Python, Java
- Terraform, GitLab CI/CD, GitOps, ArgoCD

Méthodo & gouvernance :

- ITIL V4 (obligatoire)
- Pratique incidents / problèmes / changements

SOFT SKILLS :

- Excellente communication (équipes Paris, Singapour, architectes, projets).
- Rigueur extrême & sens du service.
- Capacité à vulgariser et accompagner les équipes.
- Autonomie, fiabilité, esprit analytique.
- À l'aise dans un contexte international.

Postuler sur le site du recruteur

Parcourir plus d'offres d'emploi