
Ingénieur Big Data H/F - fortil group
- Biot - 06
- CDI
- fortil group
Les missions du poste
Nos ingénieur(e)s pilotent les activités de « Digital Transformation ». Nous prenons actuellement en main des sujets d'envergure dans les domaines de la défense, du e-commerce, du médical etc. Notre expertise s'applique à la production et/ou à la chefferie de projet notamment dans des environnements techniques complexes comme la RPA, la Cybersécurité, ou encore l'intelligence artificielle.Nous recherchons aujourd'hui un Ingénieur Big Data à Nice.
En tant qu'Ingénieur Big Data, vous êtes responsable de la conception, du déploiement, de l'automatisation et de la maintenance de pipelines de données dans un environnement distribué à forte volumétrie.
Vous travaillez en étroite collaboration avec les équipes infrastructure, Data Scientists et Analysts pour fournir des chaînes de traitement performantes, sécurisées et maintenables. Votre rôle s'inscrit dans une logique PaaS « self-service » avec un objectif fort d'optimisation du RUN.
Vos principales missions :
- Définir, construire et maintenir les chaînes de traitement de données (Linux)
- Automatiser la livraison, la supervision et l'accès aux datasets
- Documenter les solutions et participer à la rédaction du modèle de responsabilité partagée
- Assurer le support N2/N3 sur les incidents de production
- Garantir la qualité, la cohérence et la sécurité des données (monitoring, supervision)
- Participer activement à la création d'un Data Lake pour 4 opérateurs télécom
- Être impliqué dans l'astreinte sur les environnements Big Data, Kubernetes et bases de données
Profil recherché :
- Expérience opérationnelle en environnement Big Data, en build & run de pipelines
- Bonne connaissance des enjeux de production (sécurité, performance, incidents, qualité de données)
Compétences techniques requises :
- Linux, Spark / PySpark, SQL
- Kafka, Hive, Trino / Presto, GitLab CI/CD
- RDBMS et NoSQL (PostgreSQL, MariaDB, MongoDB...)
- Outils de supervision et sécurité (firewalls, monitoring)
- Connaissance des architectures Big Data distribuées
Compétences appréciées :
- Kubernetes (notamment pour Spark sur K8s)
- Apache Iceberg, Hive Metastore
- Infrastructure as Code (Ansible, Terraform)
- Environnements de stockage objet (S3)