
Expert Data - Rectorat - Orléans H/F - Ministère de l'Education nationale, de l'enseignement supérieur et de la recherche
- Orléans - 45
- CDI
- Ministère de l'Education nationale, de l'enseignement supérieur et de la recherche
Les missions du poste
L'Académie d'Orléans-Tours recrute un(e) expert data (H/F)
Le ministère délègue à la mission nationale de la DSI du rectorat d'Orléans, l'intégration de logiciels dans les domaines de la scolarité et de la gestion d'identité numérique. L'expertise développée par l'équipe d'intégration d'Orléanspermet de connecter l'ensemble des données, des applications et des API du système d'information de l'Education Nationale dans ces domaines fonctionnels, avec une recherche permanente pour améliorer l'efficacité, la fiabilité, la productivité des applications du ministère de l'Education Nationale.
En tant qu'Expert Data, vous collaborerez étroitement avec le Data Architect pour :
·Collecte et extraction des données (Data Mining) : Identifier, extraire et nettoyer les données brutes issues de sources internes (bases de l'Éducation nationale) et externes (open data, partenaires).
·Analyse et valorisation des données (Analytics Engineering) : Transformer les données brutes en données exploitables pour des analyses avancées, des tableaux de bord interactifs et des modèles d'IA, en collaboration avec les équipes internes.
·Ingénierie des données (Data Engineering) : Concevoir et maintenir des flux de données robustes et évolutifs pour l'intégration, le stockage et le traitement des données «open data» et «closed data» (ETL/ELT).
·Mise à disposition des données : Développer des API REST et interfaces pour rendre les données accessibles aux services internes, partenaires (closed data) et au public (open data).
·Gouvernance et qualité des données : Assurer la conformité (RGPD), la sécurité et la fiabilité des données, en respectant les standards open data (CSV, JSON, GeoJSON, Parquet, etc.).
Le profil recherché
Compétences techniques :
·Maîtrise des langages de programmation : Python, SQL, R, HTML, JavaScript, CSS.
·Expérience avec des outils data (KNIME Analytics Platform, n8n, Apache Airflow, etc.) et bases de données (PostgreSQL, MySQL, NoSQL).
·Connaissance des environnements cloud (AWS, Azure, ou Google Cloud) et des outils de visualisation (Apache Superset, Metabase, Power BI, ou équivalents).
Afficher la suite
·Familiarité avec les standards «open data» : CSV, JSON, GeoJSON, Parquet, API REST.
·Une expérience en préparation de données pour le machine learning (TensorFlow, PyTorch, ou équivalent) est un plus.
Compétences transverses :
·Esprit analytique et aptitude à résoudre des problèmes complexes.
·Excellente communication et capacité à collaborer avec des profils variés (techniques et non techniques).
·Autonomie, rigueur et sens de l'organisation.