Ingénieur Big Data H/F - ENOVA Consulting
- Lyon - 69
- CDI
- ENOVA Consulting
Les missions du poste
Fondée en 2018 à Genève, ENOVA est une société de conseil en technologies de l'information qui se distingue par son approche résolument humaine, agile et réactive. Notre objectif ? Offrir à nos collaborateurs et nos clients une quête constante d'excellence et de performance.
Notre engagement : l'excellence au quotidien
Chez ENOVA, nous privilégions une approche orientée résultats, en mettant l'accent sur :
* L'agilité et la réactivité pour répondre aux défis de nos clients
* L'expertise pointue et l'innovation constante
Nous croyons fermement que la réussite repose sur des valeurs fortes : communication ouverte, bien-être au travail, professionnalisme, et égalité pour tous nos collaborateurs, car chacun apporte sa touche unique à notre aventure.
Nos domaines d'expertise
Nous intervenons dans les compétences IT les plus recherchées et la gestion de projets de bout en bout, en couvrant :
* Innovation, stratégie et gouvernance des systèmes d'information
* Activités opérationnelles comme l'infrastructure, le développement d'applications et l'intégration de solutions
Notre entité ENOVA Data exploite nos savoir-faire en Cloud et DevOps pour maximiser la valeur des données de nos partenaires grâce à des compétences en data engineering, data analyse et IA générative.
Une présence internationale pour mieux vous accompagner !
France (Sophia-Antipolis, Aix-en-Provence, Paris, Lyon), Monaco, Suisse, Luxembourg.ENOVA poursuit son développement et renforce ses équipes en intégrant un(e) Développeur Data Big Data (Python / SQL / Hadoop) en CDI. Vous rejoindrez notre communauté de consultants et interviendrez en mission longue durée au sein d'un grand compte, dans un environnement stimulant et innovant.
Dans le cadre d'un programme stratégique Big Data, vous interviendrez sur une plateforme Data Lake basée sur l'écosystème Cloudera Hadoop.
Rattaché(e) au Responsable Big Data, vous participerez aux évolutions et à la maintenance des traitements d'alimentation et des extractions de données. Vous évoluerez dans un environnement technique riche et exigeant : Hadoop Cloudera, Hive, Impala, Spark, Python, Shell, Linux, SQL, Jupyter.
Vos principales responsabilités :
- Prendre en charge les évolutions des flux d'alimentation du Data Lake
- Maintenir et faire évoluer les développements existants
- Développer des traitements d'alimentation et d'extraction
- Réaliser des requêtes SQL complexes et optimiser les performances
- Automatiser les traitements via scripting Shell avancé
- Contribuer à l'optimisation des performances de la plateforme
- Assurer le support niveau 2
- Participer aux revues de code et à la spécification technique
- Documenter les processus et structurer l'activité (JIRA, guides utilisateurs)
- Accompagner et transmettre votre expertise aux profils juniors
- Garantir la qualité, la maintenabilité et le respect des délais
Le profil recherché
Nous recherchons un profil expérimenté, autonome et structuré, capable d'évoluer dans un environnement Big Data exigeant.
Compétences techniques attendues :
- Expérience confirmée (5 ans minimum) en développement Data
- Maîtrise avancée de SQL
- Solide expertise en Python
- Très bonne maîtrise du scripting Shell
- Expérience sur environnement Hadoop / Cloudera
- Connaissance de Hive, Impala, Spark
- Environnement Linux
- Expérience en optimisation de traitements et tuning de performance
- Capacité à intervenir sur une architecture complexe existante (reverse engineering)