Data Engineer H/F - Mondial Relay by InPost
- Villeneuve-d'Ascq - 59
- CDI
- Mondial Relay by InPost
Les missions du poste
Mondial Relay, un sourire à chaque coin de rue !
Nous offrons un service d'expédition et de livraison de colis, simple, rapide, économique et vertueux, au travers un réseau de Points Relais® et Lockers, créateur de liens entre e-commerçants, commerçants et consommateurs.
Devenir le leader de la livraison hors-domicile en Europe, voici le challenge que nos 1800 collaborateurs relèvent ensemble avec passion, à travers de nombreux projets collaboratifs, dans une ambiance de travail pleine de PEP'S. Prêt(e)s à prendre part à cette aventure ?Chez Mondial Relay - InPost, Data Analysis et Machine Learning sont au coeur de la stratégie de développement de l'entreprise. Si vous souhaitez développer un environnement de données innovant dans l'une des entreprises à la croissance la plus rapide en Europe, construire des solutions pour le traitement des Big Data - c'est l'endroit pour vous. Si vous aimez également développer, rechercher de nouvelles solutions, travailler dans une équipe dynamique et dans un contexte international - rejoignez l'équipe Mondial Relay - InPost.
En tant que Data Engineer, vos missions seront les suivantes :
- Construire une plateforme de traitement de grands volumes de données, robuste et évolutive.
- Développer des solutions de streaming pour le traitement en temps réel.
- Concevoir et maintenir des environnements Datalake et des bases de données NoSQL.
- Mettre en place des pipelines CI/CD et automatiser les tests pour garantir la qualité des livrables.
- Concevoir et maintenir des processus ETL/ELT, efficaces et performants.
- Appliquer les bonnes pratiques de développement : gestion des versions, revue de code, documentation.
- Assurer une veille technologique et optimiser les performances de l'infrastructure de données et des processus ETL.
- Travailler en équipes pluridisciplinaires, orientées produit, pour livrer des Data Products à forte valeur ajoutée.
Le profil recherché
Nous recherchons les qualifications suivantes :
- Expérience professionnelle :
Minimum 3 ans d'expérience sur un poste similaire.
- Expertise technique :
- Maîtrise des technologies Apache Spark (Streaming, ML, SQL) et Apache Kafka (Streams, Connect).
- Expérience avec les solutions Databricks (PySpark, Scala).
- Solide connaissance des bases de données SQL et NoSQL.
- Expérience dans la mise en oeuvre de solutions de streaming.
- Intégration de données via des API REST et SOAP.
- Maintenance d'environnements Data Warehouse et Data Lake.
- Connaissance des outils CI/CD, gestion de configuration et tests automatisés (GitLab, Jenkins...).
- Maîtrise de la containerisation avec Docker.
- Connaissances complémentaires :
- Familiarité avec les environnements cloud (GCP, Azure).
- Expérience de travail en contexte international.
- Niveau d'anglais professionnel requis.
- Soft skills :
- Esprit collaboratif et volonté de partager les connaissances.
- Sens des bonnes pratiques et de la qualité du code.