Recrutement Scalian

Data Platform Engineer H/F - Scalian

  • Bordeaux - 33
  • CDI
  • Scalian
Publié le 30 mars 2026
Postuler sur le site du recruteur

Les missions du poste


Dans le TOP10 des Sociétés de Conseil en Ingénierie en France, le Groupe SCALIAN intervient sur des activités de services en management de projets industriels, supply chain, architecture et développement de systèmes numériques embarqués, applicatifs de systèmes d'information et d'Intelligence artificielle dans des secteurs d'activité aussi variés que l'aéronautique, le spatial, l'automobile, le ferroviaire, les services, le luxe ou le retail etc.

Créée en 1989, SCALIAN compte aujourd'hui plus de 5500 collaborateurs répartis dans 11 pays et 15 implantations en France pour un chiffre d'affaires de 550 millions d'euros. SCALIAN travaille pour des grands Groupes du CAC40 sur des projets en AT ou au forfait.

Labellisée Great Place to Work, SCALIAN connait une croissance de 20% chaque année.

Pourquoi SCALIAN ?

- Parce que Scalian vous accompagne dans le développement de votre carrière : programme d'onboarding complet sur 1 an avec votre manager et votre RH, programmes de formation personnalisés, communautés techniques, événements internes
- Parce que Scalian favorise la Qualité de Vie au Travail : certifications Great Place to Work® et Best Workplaces for Women, prime de cooptation, prime vacances, accord télétravail
- Parce que Scalian développe une politique RSE concrète et ambitieuse : mobilité durable, actions environnementales, accord Handicap et mission handicap avec temps dédié


- Localisation : Bordeaux (2 jours de télétravail par semaine)
- Démarrage : Dès que possible
- Contrat : CDI
- Rémunération : 43-48K€ selon profil
- Séniorité attendue : Minimum 5 ans d'expérience sur un poste similaire

Contexte

Dans un contexte de forte croissance autour de la Data Platform, nous recrutons un Data Platform Engineer pour concevoir et exploiter des pipelines de données performants, sécurisés et évolutifs.

Vos missions :

Data Engineering & Platform

- Concevoir, développer et maintenir des pipelines de données (ingestion, transformation, intégration)
- Implémenter des modèles de données optimisés pour l'analytics et le reporting
- Exploiter l'écosystème Microsoft (Azure / Fabric / Power BI) et outils associés
- Collaborer avec les équipes métiers, applicatives et infra pour traduire les besoins en solutions techniques

DataOps & Industrialisation

- Mettre en oeuvre les bonnes pratiques DataOps : CI/CD, versioning (Git), tests automatisés, documentation
- Déployer des pipelines via Azure DevOps / GitHub
- Utiliser Terraform (IaC) pour le provisioning et la gestion des environnements

Qualité & Exploitation

- Garantir la qualité, la performance et la disponibilité des données
- Assurer le monitoring, le troubleshooting et la résolution d'incidents
- Participer à l'optimisation continue de la plateforme

Support & Gouvernance

- Accompagner les utilisateurs internes (Data Analysts, équipes applicatives)
- Contribuer aux sujets de gouvernance : sécurité, gestion des accès, qualité des données
- Produire la documentation et diffuser les bonnes pratiques

Le profil recherché


Expérience & compétences

- 5+ ans d'expérience en Data Engineering (ETL/ELT, Data Warehouse, Data Modeling)
- Excellente maîtrise de SQL et bonne pratique de Python (PySpark apprécié)
- Expérience significative sur Azure Data Services / Microsoft Fabric / Power BI
- Bonne compréhension des architectures data cloud et du traitement distribué

Outils & Méthodologies

- Maîtrise des pratiques DevOps / DataOps (CI/CD, Git, pipelines)
- Expérience avec Azure DevOps, GitHub, Terraform (IaC)
- Sensibilité aux enjeux de sécurité, gouvernance et qualité des données

Langues

- Anglais professionnel requis (B2 - C1)

Postuler sur le site du recruteur

Ces offres pourraient aussi vous correspondre.

DevOps H/F

  • Bordeaux - 33
  • CDI
  • Amiltone
Publié le 27 mars 2026
Je postule

Parcourir plus d'offres d'emploi