Recrutement CNRS

Ingénieur en Données - Développement Logiciel H/F - CNRS

  • Plouzané - 29
  • CDD
  • CNRS
Publié le 28 janvier 2026
Postuler sur le site du recruteur

Les missions du poste

Le poste est hébergé à l'UMR-LOPS, au sein de l'équipe "Satellites et Interface AirMer (SIAM)", à Brest, au sein d'une UMR sous tutelles CNRS, Ifremer, IRD et UBO (IUEM). La personne recrutée contribue au développement et à la mise en oeuvre d'outils logiciels pour l'accès, la validation/contrôle qualité, la structuration et le traitement de données d'observation (satellites) et de sorties de modèles, au sein de workflows scientifiques reproductibles.
La mission s'inscrit dans le projet GRID4EARTH / Destination Earth (DestinE) et vise à faciliter l'exploitationde données Terre à grande échelle, notamment via une indexation DGGS/HEALPix et l'écosystème Pangeo (xarray, Dask, xdggs).
Activités
La personne recrutée sera chargée de :
- Développer des outils Python pour l'accès, l'exploration et la validation/contrôle qualité de jeux de données (satellite et modèles).
- Mettre en oeuvre l'indexation et la structuration DGGS/HEALPix, et préparer des jeux de données pour l'analyse (conversion, harmonisation, échantillonnage).
- Produire des données et catalogues cloudoptimisés (ex. Zarr) avec métadonnées et publication/partage selon les pratiques du projet.
Développer des notebooks et démonstrateurs (JupyterLab, xarray, Dask, xdggs) et évaluer les performances (volumes, parallélisme, I/O).
- S'interfacer avec l'écosystème DestinE et les partenaires du projet (services, stockage, calcul), et contribuer aux échanges techniques.
- Documenter (README, tutoriels) et assurer un appui aux utilisateurs/à l'équipe (support, retours, amélioration continue).

Compétences
Formation : idéalement formation à Bac +5 (Master/école d'ingénieur) en informatique, data science, géosciences numériques ou domaine proche.
Compétences techniques : Python (env. conda/mamba), Jupyter, Git ; manipulation de données (xarray) et calcul distribué (Dask) ; Linux/scripting.
Connaissances appréciées : formats NetCDF/Zarr/Parquet, métadonnées/catalogues (ex. STAC), géomatique, HPC/Cloud.
Savoirsêtre : autonomie, sens du service, rigueur (tests/qualité), capacité à documenter et à travailler en équipe, communication en français/anglais.

Contexte de travail

Le poste est hébergé au sein de l'UMR LOPS (Brest), dans l'équipe SIAM, en interaction avec des partenaires nationaux et européens impliqués dans GRID4EARTH et l'écosystème Destination Earth (DestinE) et Sentinel(2,3). L'objectif est de développer et mettre en oeuvre des outils et workflows pour l'accès, l'exploration, la validation et la préparation de jeux de données hétérogènes (observations satellitaires et sorties de modèles), incluant l'indexation et la structuration DGGS/HEALPix ainsi que la production de données et catalogues cloud-optimisés (ex. Zarr) avec métadonnées et modalités de partage/publikation conformes aux pratiques du projet.
Le/la candidat·e travaillera au quotidien dans un environnement Python/Jupyter (JupyterLab, xarray, Dask, xdggs), avec gestion de code (Git) et exécution sur ressources de calcul adaptées (poste de travail et/ou infrastructures HPC/Cloud selon besoins). Les livrables attendus incluent des notebooks et démonstrateurs, des scripts/outils réutilisables, des jeux de données préparés (conversion, harmonisation, échantillonnage) et de la documentation (README, tutoriels), ainsi qu'une participation aux échanges techniques et à l'appui utilisateurs/équipe (retours, amélioration continue).
Le poste est hébergé au sein de l'UMR LOPS (Brest), dans l'équipe SIAM, en interaction avec des partenaires nationaux et européens impliqués dans GRID4EARTH et l'écosystème Destination Earth (DestinE) et Sentinel(2,3). L'objectif est de développer et mettre en oeuvre des outils et workflows pour l'accès, l'exploration, la validation et la préparation de jeux de données hétérogènes (observations satellitaires et sorties de modèles), incluant l'indexation et la structuration DGGS/HEALPix ainsi que la production de données et catalogues cloud-optimisés (ex. Zarr) avec métadonnées et modalités de partage/publikation conformes aux pratiques du projet.
Le/la candidat·e travaillera au quotidien dans un environnement Python/Jupyter (JupyterLab, xarray, Dask, xdggs), avec gestion de code (Git) et exécution sur ressources de calcul adaptées (poste de travail et/ou infrastructures HPC/Cloud selon besoins). Les livrables attendus incluent des notebooks et démonstrateurs, des scripts/outils réutilisables, des jeux de données préparés (conversion, harmonisation, échantillonnage) et de la documentation (README, tutoriels), ainsi qu'une participation aux échanges techniques et à l'appui utilisateurs/équipe (retours, amélioration continue).

Contraintes et risques

Poste à temps plein. Déplacements ponctuels possibles (réunions/ateliers projet) selon besoins. Pas d'astreinte prévue.
Poste à temps plein. Déplacements ponctuels possibles (réunions/ateliers projet) selon besoins. Pas d'astreinte prévue.

Postuler sur le site du recruteur

Ces offres pourraient aussi vous correspondre.

Parcourir plus d'offres d'emploi