Stéphane Mallat (Collège de France)

L'apprentissage en grande dimension: de l'image à la physique

Les problèmes de classification et de régression nécessitent d'approximer des fonctions qui dépendent d'un grand nombre de variables. De telles approximations se heurtent à la malédiction de la dimensionnalité, qui prédit que le nombre d'exemples d'apprentissage doit croître exponentiellement avec la dimension. Les réseaux de neurones profonds semblent capables d'approximer de larges classes de fonctions, dont on comprend mal les propriétés, malgré leurs performances spectaculaires. Un point clef est cependant le calcul d'invariants sur des groupes de symétries, comme le groupe des difféomorphismes. L'étude de ces réseaux posent de nombreuses questions mathématiques, qui touchent l'analyse harmonique, les probabilités et statistiques ainsi que la géométrie. Je montrerai des applications pour la classification d'images, pour la physique statistique, et le calcul d'énergies moléculaires en chimie quantique.