Thèse Modèles Génératifs par Flots Hamiltoniens et Non-Réversibles H/F - Université Clermont Auvergne
- Clermont - 74
- CDD
- Université Clermont Auvergne
Les missions du poste
Établissement : Université Clermont Auvergne
École doctorale : Sciences Fondamentales
Laboratoire de recherche : Laboratoire de Mathématiques Blaise Pascal
Direction de la thèse : Manon MICHEL ORCID 0000000288375856
Début de la thèse : 2026-10-01
Date limite de candidature : 2026-06-15T23:59:59
Le projet de doctorat s'inscrit dans le domaine des modèles génératifs, qui vise à capturer et à échantillonner des distributions de données complexes et de grande dimension, jouant ainsi un rôle central en apprentissage automatique, en inférence bayésienne et en physique computationnelle. Parmi les méthodes génératives, les Normalizing Flows (NF) se distinguent par leur capacité à apprendre une transformation d'une distribution simple vers une distribution cible via une succession de transformations inversibles, offrant des garanties intéressantes en termes de stabilité et de correction. Toutefois, ces approches classiques souffrent souvent de limitations computationnelles importantes, notamment en grande dimension, où le calcul des déterminants jacobiens devient coûteux.
Dans ce contexte, les Normalizing Hamiltonian Flows (NHF) constituent une alternative prometteuse. En s'appuyant sur des schémas d'intégration symplectique, ils permettent de construire des transformations conservant le volume tout en autorisant des architectures neuronales flexibles. Ces méthodes présentent plusieurs avantages, tels qu'une réduction des coûts de calcul, une robustesse accrue grâce à une modélisation explicite de l'énergie cinétique, ainsi qu'une meilleure interprétabilité. Des résultats récents montrent notamment que les NHF nécessitent des intégrations dynamiques plus courtes que les modèles de diffusion, ce qui renforce leur attractivité du point de vue computationnel.
Le projet vise ainsi à approfondir ces avancées en améliorant la flexibilité des NHF, tout en explorant des approches alternatives fondées sur des implémentations de flux non réversibles. L'objectif est de développer des outils génératifs à l'état de l'art, capables de rivaliser avec les modèles de diffusion, et de mieux comprendre les liens analytiques entre ces différentes approches et de quantifier leur performance. Un enjeu important consistera également à évaluer la capacité des NHF à passer à l'échelle sur des modèles complexes de physique statistique et à comparer rigoureusement leur efficacité à celle d'autres méthodes génératives.
Le doctorant ou la doctorante évoluera dans un environnement de recherche riche et interdisciplinaire. Il ou elle sera accueilli(e) à l'Université Clermont Auvergne, au Laboratoire de Mathématiques Blaise Pascal (UMR 6620), et intégré(e) à la chaire MIAI R-GAINS. Le projet sera encadré par Arnaud Guillin (UCA, LMBP) et Manon Michel (CNRS, LMBP), et s'inscrira dans une dynamique collaborative impliquant plusieurs laboratoires (LMBP, ICCF à Clermont-Ferrand, ainsi que le LIPhy à l'Université Grenoble Alpes). Le ou la candidat(e) bénéficiera également de l'écosystème du MIAI (Multidisciplinary Institute in Artificial Intelligence), qui favorise des recherches de pointe en intelligence artificielle et leurs applications, offrant ainsi un cadre stimulant à l'interface entre processus stochastiques, apprentissage automatique et physique statistique.
Les modéles génératifs vise à capturer et à échantillonner des distributions de données complexes et de grande dimension, jouant ainsi un rôle central en apprentissage automatique, en inférence bayésienne et en physique computationnelle. Parmi les méthodes génératives, les Normalizing Flows (NF) ont gagné en importance en entraînant des réseaux de neurones à transformer une distribution a priori simple en une distribution cible via une succession de transformations inversibles. Ils présentent des caractéristiques intéressantes, telles que la stabilité et la correction. Cependant, les approches NF traditionnelles rencontrent souvent d'importants goulots d'étranglement computationnels, en particulier en grande dimension, où le calcul des déterminants jacobiens peut être coûteux.
Les Normalizing Hamiltonian Flows (NHF) ont émergé comme une alternative prometteuse, en s'appuyant sur l'intégration symplectique pour construire des transformations conservant le volume et en permettant des architectures de réseaux de neurones flexibles [1, 2]. Ces méthodes présentent plusieurs avantages, tels qu'une réduction des coûts de calcul, une robustesse accrue grâce à une modélisation explicite de l'énergie cinétique, ainsi qu'une meilleure interprétabilité. Malgré leur potentiel, des défis subsistent quant au passage à l'échelle des NHF pour des modèles complexes et à la comparaison de leur efficacité avec d'autres approches génératives, telles que les modèles de diffusion.
--------------------------------------------------------------------------------------------------------
Generative modeling aims to capture and sample complex high-dimensional data distributions, playing a central role in machine learning, Bayesian inference and computational physics. Among generative methods, Normalizing Flows (NF) have gained prominence by training neural networks to map a simple prior distribution onto the desired target distribution through a sequence of invertible transformations. They come with interesting characteristics, such as stability and correctness. However, traditional NF
approaches often face significant computational bottlenecks, particularly in high dimensions, where calculating Jacobian determinants can be costly. Normalizing Hamiltonian Flows (NHFs) have emerged as a promising alternative, leveraging symplectic integration for volume-preserving transformations and enabling flexible neural network architectures [1, 2]. These methods exhibit advantages such as reduced computational costs, robustness through explicit kinetic energy design, and interpretability. Despite their potential, challenges remain in scaling NHFs to complex models and comparing their efficiency to other generative approaches, such as diffusion models.
Le profil recherché
Nous recherchons un(e) candidat(e) motivé(e) ayant une formation en probabilités, en physique statistique ou en statistiques computationnelles, ainsi qu'un intérêt pour la modélisation générative et les processus stochastiques. Une expérience en programmation est fortement souhaitée. Pour plus de détails, contactez Manon Michel (****@****.**). Les candidatures doivent inclure un CV, une lettre de motivation, les relevés de notes académiques ainsi que des contacts de référence, si disponibles.