Recrutement HELPLINE

Data Ops - Plateforme Lakehouse H/F - HELPLINE

  • Martigues - 13
  • CDI
  • HELPLINE
Publié le 4 mai 2026
Postuler sur le site du recruteur

Les missions du poste


Et si vous choisissiez plus qu'un simple job ?

A propos de HELPLINE :

HELPLINE est spécialisée dans l'infogérance du support utilisateur et la mise en oeuvre d'une expérience collaborateur augmentée par l'IA, où l'expertise humaine et la technologie s'enrichissent mutuellement. Ses équipes assurent le support utilisateur, le support applicatif, le support de proximité, la gestion des actifs IT et la GRC (Gouvernance, Risque et Conformité).

Sa mission est double : soutenir les besoins opérationnels des DSI et des métiers ; et offrir aux collaborateurs une expérience fluide et fiable, alignée avec les standards des marques grand public.

Intervenant en France et dans le monde, HELPLINE compte 2500 collaborateurs au service de plus de 200 clients. Elle affiche un CA de +200 M€ en 2025.

HELPLINE fait partie d'Everience, groupe international de conseil et de services numériques augmentés, pionnier de la symbiose Homme-IA en entreprise.

Concernant la région SUD de HELPLINE :

- S'étendant de Nice à Toulouse, la région sud de HELPLINE couvre les régions PACA (Provence-Alpes-Côte d'Azur) et OCCITANIE.
- Celle-ci est gérée par deux agences : l'une à Aix-en-Provence, responsable de la région PACA, et l'autre à Montpellier, dédiée à la région OCCITANIE.
- Bien que le support soit le coeur de métier de HELPLINE, la région sud connaît un développement notable dans les domaines de l'infrastructure et du développement applicatif.
- Au sein de la région sud de HELPLINE, nous misons sur un management de proximité favorisant le développement des compétences et encourageant la croissance professionnelle de chacun.

Envie de nous rejoindre ? Nous avons le poste fait pour vous !

Contexte de la mission

Dans le cadre du renforcement de son Centre d'Expertise Data Ingénierie Ops, un client confidentiel fait appel à un prestataire spécialisé en Big Data pour l'accompagner sur l'exploitation et l'optimisation de ses plateformes Data Warehouse et Lakehouse.

L'intervention s'inscrit dans un environnement technique riche, orienté performance, fiabilité et amélioration continue, au coeur d'une organisation fonctionnant en mode produit et selon les principes Agile / DevOps.

Mission

En tant qu'Expert technique Data / Lakehouse Ops, vous intervenez sur les plateformes Data afin d'en garantir le maintien en conditions opérationnelles et d'accompagner les équipes projets et métiers.

À ce titre, vous serez notamment en charge de :

- Assurer le maintien en conditions opérationnelles (MCO) des plateformes Data
- Gérer les incidents, les demandes de support et les changements (support N2 / N3)
- Interagir avec les équipes projets et utilisateurs finaux
- Contribuer à l'automatisation et à l'industrialisation des solutions
- Réaliser les déploiements sur les environnements intégration, préproduction et production
- Participer à l'amélioration continue des outils d'exploitation et de déploiement
- Assurer une communication régulière auprès du Product Owner

Le profil recherché


Compétences recherchées

Compétences techniques - Data Warehouse

- SQL : bon niveau
- Shell scripting : bon niveau
- Lecture et compréhension de structures de fichiers XML, JSON, YAML
- Control-M :
- Création de jobs simples
- Gestion des calendriers, dépendances et connexion profiles
- ETL Informatica :
- Création de mappings simples
- Transformations basiques
- Analyse des logs SQL
- Systèmes : Unix / Linux, Putty, Pageant
- Jenkins
- Teradata :
- Utilisation de Teradata appréciée
- Teradata Studio apprécié
- Power BI : utilisation appréciée

Compétences techniques - Data Lake / Lakehouse

- Administration Dataiku
- Administration dbt
- Starburst / Trino :
- Administration
- Troubleshooting
- Optimisation des performances
- Kubernetes
- GitLab
- Control-M (identique au périmètre Warehouse)
- Airflow :
- Création de DAGs simples
- Utilisation d'opérateurs basiques
- Gestion des retries
- Logique de scheduling
- Gestion des dépendances et XComs
- Kafka / Kafka Connect
- Monitoring Kafka
- Grafana

Compétences méthodologiques & soft skills

- Connaissance des principes Agile et des bases de Scrum
(rôles, rituels, artefacts)
- Expérience en gestion des incidents et des changements
- Culture produit :
- Compréhension des principes du mode produit
- Anglais : courant et technique
- Bonnes capacités rédactionnelles
- Autonomie, rigueur, esprit d'analyse et sens du service

Postuler sur le site du recruteur

Parcourir plus d'offres d'emploi