
Développeur Big Data H/F - Nexton
- Lyon - 69
- CDI
- Nexton
Les missions du poste
Qui sommes-nous ?
Rejoindre NEXTON, c'est intégrer une entreprise où convergent l'esprit d'un cabinet de conseil, la créativité d'une agence et la dynamique d'une ESN ! Grâce à notre expertise, nous accompagnons des clients grands comptes et des pure players tels que SNCF, Orange, et BNP Paribas dans leurs stratégies d'évolution et d'innovation digitale.
Fondée en 2011, NEXTON réunit aujourd'hui une équipe de plus de 450 experts spécialisés dans le digital, le design, l'agilité, le produit et le développement. Ensemble, ils créent un écosystème riche en connaissances et en compétences diversifiées.NEXTON recrute un Développeur Big Data H/F, en CDI, à Lyon !
Ton futur environnement de travail :
Au coeur d'un programme stratégique lié à la valorisation et la fiabilisation de la donnée,tu participes à la conception, au développement et à l'optimisation de solutions data innovantes, en exploitant des technologies de pointe du Big Data et du Cloud.
Tes missions :
- Concevoir et développer des traitements scalables et performants sur des plateformes Big Data (Hadoop, Spark, Hive...).
- Réaliser la qualification et les tests unitaires pour garantir la robustesse des solutions.
- Participer au déploiement en production et à la maintenance corrective/évolutive des solutions existantes.
- Optimiser les performances des traitements et proposer des améliorations continues.
- Collaborer avec les équipes métier et techniques pour assurer la cohérence fonctionnelle.
- Contribuer activement aux rituels Agile et partager les bonnes pratiques au sein de l'équipe.
Le profil recherché
De formation supérieure (Bac +5), tu disposes d'au moins 5 ans d'expérience en développement Big Data.
- Maîtrise confirmée de Scala et/ou Java, ainsi que des langages de requêtes type SQL.
- Solide expérience sur les environnements Hadoop, Spark, Hive, et une connaissance d'Oozie est un plus.
- Bonne pratique des outils de gestion de versions (Git) et des environnements Linux.
- Connaissances des environnements Cloud (idéalement GCP, Azure est un plus).
- Expérience avec les outils de streaming et d'indexation : Kafka, ElasticSearch, Kibana.
- Capacité à évoluer en environnement Agile (Scrum) et à collaborer avec des équipes pluridisciplinaires.
- Bon niveau en anglais (lu/écrit) pour évoluer dans un contexte international.