11/19/2024 | News release | Archived content
Michèle Sebag - Nous avons commencé au début des années 1990, à une époque où l'IA n'était pas bien vue. L'IA était alors un champ où l'on pouvait s'épanouir quand on aimait les sciences « dures » (informatique, mathématiques), mais aussi l'économie, les sciences cognitives, la philosophie. Cette ouverture perturbait autant les scientifiques de sciences dures, qui considéraient que les chercheurs de l'IA n'étaient pas sérieux, que les philosophes, qui les trouvaient « légers ». C'était la double peine classique des chercheurs pluridisciplinaires !
Marc Schoenauer - Historiquement, il y a eu plusieurs périodes qu'on a appelé des « hivers de l'IA » : à la fin des années 1970 et au début des années 1990.
À chaque fois, l'IA promettait beaucoup et réalisait fort peu. Aujourd'hui, c'est plutôt l'été ! Ce qui a changé, c'est que les succès empiriques dans le machine learning, qui est la partie la plus visible de l'IA, sont désormais indéniables - y compris pour les scientifiques les plus sceptiques. Mais attention aux promesses !
Les modèles d'IA type ChatGPT coûtent atrocement cher en énergie, pour les entraîner comme pour les utiliser à grande échelle. Il y a aussi un vrai sujet scientifique concernant leur mise à jour. Et surtout, on place beaucoup d'espoir sur l'IA pour faire des choses bien (« AI for Good »), mais l'IA a malheureusement également un très fort potentiel « maléfique ».
Michèle Sebag - Le terrible est à côté du très bien. Par exemple, nous travaillons depuis près de 5 ans avec France Travail et l'ENSAE Paris pour utiliser des algorithmes d'apprentissage afin de mettre en avant des offres qui intéressent les demandeurs d'emploi. D'un point de vue formel, c'est la même chose que d'utiliser des données pour les algorithmes de recommandation des grandes plate-formes commerciales. Mais d'un point de vue éthique, ce n'est pas du tout la même chose. Sur Netflix, on peut recommander le même film à un très grand nombre ; sur France Travail, on ne peut pas recommander la même personne à de très nombreux recruteurs.
Il y a aussi la question des biais. Les données ne sont pas les mêmes entre les hommes et les femmes : par exemple, on observe que les femmes sont plus prêtes à sacrifier un peu de salaire pour un emploi plus proche de chez elles. Ce sont des choses que les données nous disent, mais est-ce qu'on souhaite que nos recommandations perpétuent cela, en proposant par exemple aux femmes des postes moins bien payés mais plus proches de chez elles ? Comment faire pour ne pas graver ces biais dans le « marbre » des modèles ? Et à l'inverse, ce n'est pas à nous de dire aux gens ce qui est bon pour eux.
Marc Schoenauer - Nous nous sommes rencontrés à l'École Normale Supérieure (ENS) de Paris. J'ai commencé ma carrière de chercheur au CNRS au Centre de Mathématiques Appliquées de l'Ecole Polytechnique en 1980. Michèle a préféré d'abord aller voir ce qui se passait dans l'industrie, et elle a rejoint l'École polytechnique pour une thèse en mécanique des solides. Nous avons ainsi pu créer une petite équipe interdisciplinaire qui travaillait, déjà, sur l'optimisation et l'apprentissage. En 2001, j'ai rejoint Inria à Rocquencourt. La création de l'embryon de Centre Inria Futur (qui deviendra plus tard le centre Inria de Saclay) nous a permis de créer dès 2003 notre équipe-projet TAO, en partenariat avec le LRI, laboratoire commun entre l'Université Paris-Sud et le CNRS.
Michèle Sebag - TAO, cela voulait dire « Thèmes, apprentissage et optimisation ». À l'époque, associer le « A » et le « O » était original ; aujourd'hui c'est une évidence. Cela nous a permis de faire une équipe pluridisciplinaire et de bien nous amuser. Par exemple, nous avons travaillé sur le jeu de Go, ce qui fait que nous avions tout le temps l'impression de jouer ! En 2016, à la fin de ses 12 ans d'existence autorisés aux équipes Inria, TAO est devenue TAU (TAckling the Underspecified - s'attaquer aux problèmes mal spécifiés), pour souligner le fait qu'il subsiste un manque de spécification et de conscience de ce qui pourrait mal tourner dans le domaine de l'IA.
Marc Schoenauer - Notre cœur de métier reste aujourd'hui l'apprentissage, avec la compréhension de ses algorithmes et leur amélioration, par exemple en termes de consommation énergétique (on parle alors d'apprentissage frugal). Mais nous sommes aussi persuadés qu'il faut élargir la palette d'expertises pour améliorer notre créativité et exister face à la concurrence sans avoir leurs moyens matériels. Depuis sa création en 2003, l'équipe a vu passer une grande variété de chercheurs. Ainsi, il y a aujourd'hui dans l'équipe un noyau de trois chercheurs en physique statistique : nous pensions que leur expertise pouvait être très utile à l'IA car ils ont l'habitude de traiter de grandes quantités de données. Nous avons également accueilli des chercheur.e.s venant de mathématiques dite pure, de bioinformatique, et même de sociologie. À l'époque, accueillir des expertises aussi diverses dans une équipe d'informatique était atypique. Les temps ont changé et toutes les expertises sont les bienvenues.
Michèle Sebag - Parmi les fondamentaux de l'équipe, il y a le fait que, vu l'ampleur des applications de l'IA dans la vie quotidienne,
Il devient très important que les algorithmes ne soient pas des boîtes noires - c'est-à-dire qu'il ne s'agit pas uniquement de faire une recommandation mais de créer des modèles capables de donner des explications sur les raisons de cette recommandation. Cela implique de définir les explications - on en revient à la question des biais, qu'il faut pouvoir identifier et rectifier.
Un autre aspect important, c'est de parvenir à créer des modèles causaux, et qui donc ne reposent pas uniquement sur des corrélations. Par exemple, on peut établir une corrélation entre le fait qu'on utilise un parapluie et le fait qu'il pleut, mais pas une causalité : le fait que tout le monde ouvre son parapluie ne fera pas pleuvoir. Or c'est essentiel parce que tout le monde pense que l'IA et le machine learning vont permettre de prédire ce qui va se passer, et donc en particulier de le contrôler. Mais vouloir agir sur la réalité, ce n'est pas le cadre usuel du machine learning ; il faut fonder les interventions sur des modèles causaux, qui sont plus puissants, mais bien plus difficiles à construire.
Enfin, il y a tout le champ de l'IA pour le bien commun. Certains collègues travaillent avec le Laboratoire d'écologie environnementale : à Saclay il y a des champs, où certains agriculteurs mettent des pesticides pour éliminer les insectes parasites, et donc augmenter les rendements. Malheureusement, plus de pesticide veut dire aussi moins d'insectes pollinisateurs, et donc moins de fertilisation. L'enjeu, c'est de pouvoir qualifier et quantifier le service rendu à un agriculteur par les butineurs, grâce à l'IA.
Marc Schoenauer - Une autre direction de recherche intéressante est le couplage entre l'IA et la simulation numérique. Il s'agit de concevoir des méthodes de calcul basées sur les données et non sur des modèles mathématiques, afin d'accélérer les simulations, voire de capturer des phénomènes dont les équations ne peuvent pas rendre compte. Ainsi, trois de nos anciens doctorants sont aujourd'hui accompagnés par Inria Startup Studio pour le lancement d'une startup - AUGUR - sur le sujet !
Ensemble - Nous voulons continuer la recherche, non seulement pour les enjeux scientifiques, sociétaux et environnementaux, mais aussi parce que ça nous amuse. Je voudrais dire que l'essentiel pour une équipe de recherche qui travaille bien, c'est l'atmosphère qui y règne. Tant qu'il y a des fêtes, tout va bien !
Alors nous vous souhaitons encore beaucoup de fêtes !