Recrutement Deep

Data Engineer H/F - Deep

  • Levallois-Perret - 92
  • CDI
  • Deep
Publié le 10 octobre 2025
Postuler sur le site du recruteur

Les missions du poste

En tant que Data Engineer, vous interviendrez sur des missions variées chez nos clients (ETI et grands groupes), en collaboration avec des équipes pluridisciplinaires.

Votre rôle consistera à concevoir, développer et optimiser des pipelines de données robustes, scalables et sécurisés, tout en accompagnant les métiers dans la définition de leurs besoins et la valorisation de leurs données.

Vous serez à la fois faiseur et conseil: capable de construire des architectures techniques fiables, mais aussi d'animer des ateliers métiers pour transformer les besoins fonctionnels en solutions data concrètes

Vos principales responsabilités :
Data Engineering
- Concevoir, développer et maintenir des pipelines de données robustes et automatisés.
- Mettre en place des flux d'intégration et de traitement de données, y compris dans des contextes de migration vers le Cloud.
- Définir et implémenter de nouvelles architectures data (data warehouse, data lake, lakehouse).
- Assurer la qualité, la sécurité, la conformité (RGPD) et la performance des données.
- Industrialiser les traitements et mettre en oeuvre les bonnes pratiques DevOps (CI/CD, monitoring).

Data Consulting
- Animer des ateliers métiers pour comprendre les besoins utilisateurs et les traduire en solutions data adaptées.
- Participer à la conception, l'implémentation et l'automatisation des flux de données répondant aux enjeux métiers.
- Produire et restituer des analyses et visualisations claires pour accompagner la prise de décision.

Innovation & veille
- Expérimenter et industrialiser des modèles de Machine Learning (LLMs, NLP, RAG, etc.).
- Contribuer à la veille technologique, tester et intégrer de nouvelles solutions innovantes dans les projets.

Profil recherché :
- Diplômé(e) d'une école d'ingénieur ou d'un cursus en informatique (une thèse serait un plus).
- Expérience significative avec plusieurs mises en production de pipelines ou projets data.

Compétences techniques :
- Langages : SQL, Python, Java.
- Bases de données / DWH : PostgreSQL, SQL Server, Oracle.
- Orchestration & Big Data : Airflow, Spark, Monitoring, MLOps.
- DevOps : Docker, Kubernetes, CI/CD (GitLab, GitHub Actions).
- Cloud : AWS.
- Data Viz : Plotly/Dash (idéalement Power BI ou Tableau en complément).
- IA / ML : GPT, BERT, HuggingFace, LangChain, Pinecone.
- Gestion du code : Git (GitFlow standard), GitHub.

Serait un plus : DBT, Snowflake, Terraform, Dataiku, Databricks.

Soft skills :
- Vous avez l'esprit analytique et aimez résoudre des problèmes complexes.
- Vous savez vulgariser les concepts techniques auprès des clients (IT / métiers / CDO).
- Vous êtes curieux(se) et disposez d'une réelle appétence pour l'innovation et les nouvelles technologies.
- Vous êtes autonome, rigoureux(se) et proactif(ve).
- Vous aimez travailler en équipe.

Le profil recherché

Experience: 3 An(s)

Compétences: Analyser, exploiter, structurer des données

Langues: Anglais exigé,Français exigé

Qualification: Cadre

Secteur d'activité: Conseil en systèmes et logiciels informatiques

Liste des qualités professionnelles:
Avoir l'esprit d'équipe : Capacité à travailler et à se coordonner avec les autres au sein de l'entreprise pour réaliser les objectifs fixés.
Faire preuve de rigueur et de précision : Capacité à réaliser des tâches en suivant avec exactitude les règles, les procédures, les instructions qui ont été fournies, sans réaliser d'erreur et à transmettre clairement des informations. Se montrer ponctuel et respectueux des règles de savoir-vivre usuelles.
Faire preuve d'autonomie : Capacité à prendre en charge son activité sans devoir être encadré de façon continue (le cas échéant, à solliciter les autres acteurs de l'entreprise).

Postuler sur le site du recruteur

Ces offres pourraient aussi vous correspondre.

Parcourir plus d'offres d'emploi