Rémi BARDENET©Patrick Bas

Rémi BardenetChargé de recherche

Starting Grant

Après une formation de mathématiques à l’Université de Strasbourg et un master d’apprentissage artificiel («machine learning» pour les anglophones) à l’ENS Cachan, Rémi Bardenet obtient un doctorat d’informatique de l’Université Paris-Sud en 2012. Réalisée entre un laboratoire de physique et un laboratoire d’informatique, sa thèse porte sur le développement de méthodes statistiques pour l’analyse des données d’une des grandes expériences actuelles de physique des particules, l’expérience Pierre Auger en Argentine. Dès cette période, Rémi est attiré par l’interdisciplinarité et les méthodes statistiques «bayésiennes». Ces dernières transforment tout problème de décision («À quel point suis-je sûr que ce rayonnement cosmique est constitué uniquement de protons ?», «Quand peut-on arrêter un essai clinique et décider qu’un vaccin est suffisamment efficace et non-risqué ?») en un calcul de volume. Mais ce volume n’est pas de ceux pour lesquels on apprend des formules à l’école, il s’agit d’une boite très irrégulière dans un espace décrit non pas par trois dimensions comme 
le nôtre, mais par des dizaines, des centaines, des milliers de dimensions. C’est ce qui rend les méthodes bayésiennes couteuses en temps de calcul, et ce qui restreint leur usage dans les applications scientifiques les plus ambitieuses.

Pendant son séjour postdoctoral à l’Université d’Oxford, au Royaume-Uni, Rémi étudie les limites computationnelles des statistiques bayésiennes lorsque les données sont trop nombreuses pour être stockées en mémoire ; c’est un des aspects de qu’on appelle «big data». Recruté ensuite comme chargé de recherche CNRS en informatique en 2014, Rémi retraverse la Manche et rejoint le laboratoire CRIStAL de l’Université de Lille début 2015, dans l’équipe SigMA («Signaux, modèles et applications»). Avec Adrien Hardy, qui passait dans le même temps de l’Université KTH à Stockholm au laboratoire de mathématiques Paul Painlevé de l’Université de Lille, Rémi entame alors un programme de recherche sur l’utilisation statistique des processus ponctuels répulsifs.

Les processus ponctuels répulsifs sont des objets mathématiques issus de la physique statistique qui modélisent des particules qui se repoussent. Le point de départ de Rémi et Adrien est d’utiliser cette répulsivité pour obtenir des méthodes rapides d’intégration numérique, c’est-à-dire de calcul de volume. À gros traits, en mimant des particules physiques chargées qui se repoussent et remplissent rapidement et régulièrement une partie de l’espace, on peut calculer le volume de cette partie de l’espace en utilisant relativement peu de particules.  

En parallèle, l’interaction de Rémi avec ses collègues de SigMA, et au-delà avec une communauté francophone de traitement du signal très ouverte, ont fait naitre des questions de recherche à l’intersection de la théorie du signal et de ces processus répulsifs devenus chers à Rémi. En particulier, ils ont reconnu dans les outils traditionnels du traitement de signal des processus répulsifs issus de l’optique quantique, dont les propriétés statistiques permettent d’élaborer de nouveaux algorithmes de débruitage. Rémi continue d’explorer les connections avec le traitement du signal d’une part, et avec l’optique quantique d’autre part.

En termes de financement, ce programme de recherche initié à Lille a constitué le socle du projet ANR «jeune chercheur» de Rémi en 2016--2020, et lui ont valu l’obtention de cette ERC Starting Grant «Blackjack» en 2020--2025, ainsi que d’une chaire nationale d’intelligence artificielle nommée «Baccarat» en 2020-2024.
 

Chargé de recherche au CRIStAL