Thèse Théorie Statistique de l'Optimisation Bi-Niveau H/F - Doctorat.Gouv.Fr
- Paris - 75
- CDD
- Doctorat.Gouv.Fr
Les missions du poste
Établissement : Université Paris-Saclay GS Mathématiques École doctorale : Mathématiques Hadamard Laboratoire de recherche : Laboratoire de Mathématiques d'Orsay Direction de la thèse : Evgenii CHZHEN ORCID 0009000330654267 Début de la thèse : 2026-10-01 Date limite de candidature : 2026-04-24T23:59:59 Ce projet de thèse porte sur l'optimisation bi-niveau, un cadre qui s'est récemment imposé comme une approche rigoureuse pour traiter les questions d'équité algorithmique. Le projet vise à développer la théorie statistique qui fait actuellement défaut dans ce domaine, à approfondir ses fondements en optimisation, et à établir des liens formels entre ces deux dimensions. L'idée centrale est de concevoir des algorithmes d'apprentissage à inspiration variationnelle, dotés de garanties statistiques solides, sous la forme de bornes de généralisation et, le cas échéant, de garanties d'estimation plus fines fondées sur des hypothèses de modèle.
Le problème soulève deux défis intimement liés. D'une part, la théorie de l'optimisation bi-niveau existante se limite aux performances en échantillon et ne traite pas des propriétés de généralisation des rares méthodes disponibles à ce jour. D'autre part, une théorie statistique de l'optimisation bi-niveau reste largement à construire et n'a commencé à susciter l'intérêt de la communauté que très récemment. Le projet se situe ainsi à l'intersection de l'optimisation, de la théorie statistique de l'apprentissage et de l'équité algorithmique. Le plan de travail s'articule en plusieurs phases, chacune ciblant un ensemble distinct de défis relevant de ces trois axes. The increasing reliance on machine learning systems in high-stakes domains such as hiring, lending, and criminal justice has heightened concerns about biases that may be perpetuated and even amplified by algorithms. Consequently, fairness constraints have emerged as a central component of algorithmic decision-making, yet the optimization-theoretic foundations of learning under such constraints remain underdeveloped. This thesis will develop a rigorous statistical theory for such estimators, addressing questions of consistency, convergence rates, and finite-sample guarantees under standard regularity conditions.
Le profil recherché
Nous recherchons un profil avec de solides bases en mathématiques et en statistiques, une appétence pour l'optimisation, ainsi que des notions de programmation. Une aisance avec les concepts quantitatifs et la capacité à traduire des problèmes concrets en modèles analytiques seront particulièrement appréciées.