Portrait de Milo Rignell, responsable des travaux de l'Institut Montaigne

Institut Montaigne : “Il faut décider quels choix l’IA fera pour nous.”

L’IA accompagne déjà les grandes mutations de notre société : transition écologique et alimentaire, nouveaux modes de consommation, santé… Mais elle suscite également des interrogations. Milo Rignell, responsable des travaux de l'Institut Montaigne sur les sujets numériques et de nouvelles technologies, dresse le portrait d’une IA responsabilisée.

6 minutes de lecture

Pourquoi l’Institut Montaigne s’intéresse-t-il à l’IA ?

Nous nous intéressons à l’IA depuis assez longtemps ; d’abord au travers de la démocratisation des usages, c’est-à dire en nous interrogeant sur la façon dont l’IA peut être utilisée dans l’éducation, la santé, etc. Par exemple, dès 2015, nous avons étudié l’idée d’intégrer l’IA comme outil d’apprentissage de la lecture. Et depuis 2020, nous nous penchons sur la prévention des risques. Nous avons publié un rapport sur les biais algorithmiques, et nous avons créé des programmes pour former les citoyens à l’IA, leur donner des outils pour s’en emparer et se prémunir des risques. Plus récemment, nous avons publié une note sur l’importance d’une IA sûre et digne de confiance.

Quel est le rôle de l’IA vis-à-vis des mutations de notre société ?

Jusqu’à présent, l’intelligence artificielle était utilisée dans des cas très spécifiques pour augmenter les capacités humaines et se faciliter la vie. Aujourd’hui, nous sommes à une deuxième étape où l’IA peut faire plusieurs tâches dans différents cas d’usage, et serait capable de rapidement accélérer la science et la technologie, plus généralement. Les IA plus autonomes qui se développent vont porter en elles des choix sociétaux dans la façon dont elles nous présenteront les choses, dont elles prendront certaines décisions qui nous impactent – l’allocation de crédits bancaires, par exemple. Il est donc important de se poser les bonnes questions avant de les intégrer.

Puisque l’IA porte en elle nos choix de société, comment fait-on pour en garantir un déploiement éthique et responsable ?

La première chose, c’est de se concentrer sur la sûreté. Il faut avoir des systèmes d’IA qui se comportent comme nous l’avons prévu : sans discrimination, sans violence, sans information erronée. Ensuite, il faut décider quels choix l’IA fera pour nous. C’est une question fondamentale et difficile. Un débat démocratique est nécessaire pour déterminer quels sont les critères éthiques que nous devons intégrer dans ces IA, et ces débats commencent à peine. Il faut également noter qu’une réglementation européenne, le « Artificial Intelligence Act », est en cours de discussion. L’idée est de décider quels sont les cas d’usage à haut risque, par exemple dans la santé, la défense, certains aspects du recrutement. Elle est aussi de s’assurer que, dès lors que nous utilisons des systèmes d’IA pour décider quel candidat sera retenu pour un poste ou pour établir un diagnostic médical, le système est soumis à un certain nombre d’obligations, pour vérifier qu’il n’est pas dangereux – par exemple qu’il n’y a pas de biais. C’est en cours : ce sera sans doute adopté prochainement et concrètement mis en oeuvre courant 2025. Enfin, je crois qu’il est essentiel d’accompagner ceux qui seront impactés par les transformations engendrées, pour compléter leurs compétences et pour leur donner de bonnes raisons de faire confiance à l’IA.

Comment faire face aux réticences du grand public face à l’IA ?

Certaines sont fondées, d’autres moins. Parmi les premières, nous pouvons parler de la sécurité, de la fiabilité et des choix sociétaux que les IA portent en elles. Les craintes infondées viennent surtout d’un manque de compréhension de la technologie. Pour déconstruire cela, la formation est essentielle : ainsi, une plus grande compréhension de son fonctionnement sera assurée et les bénéfices apparaîtront plus clairement. Il s’agit de comprendre que c’est un outil qui dépend de nos choix de construction et pas un individu qui prend des décisions spontanées.

Vous proposez justement une formation nommée « Objectif IA ». Pouvez-vous nous raconter la genèse de ce projet ?

En 2020, nous sommes partis d’un constat : il y avait très peu de formations grand public sur l’IA. Nous souhaitions combler ce manque. Avec OpenClassrooms et la Fondation Abeona, nous avons développé un cours accessible au plus grand nombre, gratuit, court, pédagogique. Cette version a beaucoup plu et nous l’avons décliné en anglais sous le titre « Destination AI », en partenariat avec l’UNESCO et d’autres pays tels que le Canada.

60 % des Français* estiment que l’intelligence artificielle a une incidence positive en matière d’environnement et de santé. Comment l’IA peut-elle accompagner et aider à relever le défi de la transition écologique ?

Sur le défi environnemental, les deux questions que nous nous posons sont : comment réduire l’impact environnemental que peut avoir le numérique, aussi appelé « Green IT » (le numérique éco-responsable, ndlr), et comment le numérique et l’IA peuvent-ils être des outils pour réduire l’empreinte environnementale plus globale de nos sociétés ? Un cas qui illustre ces deux enjeux est celui des data centers. Aujourd’hui, nous estimons qu’en France, le numérique compte pour 2,5% de l’empreinte environnementale globale de la France (d’après l’Ademe). Au sein de ces 2,5 %, les data centers arrivent après la fabrication des terminaux. C’est un poids environnemental non négligeable, mais l’IA aide justement à réduire cette consommation. Dès 2016, les équipes de Google DeepMind ont par exemple conçu des algorithmes qui ont réduit de 40 % la consommation énergétique de leurs data centers. Ils peuvent être aussi utilisés pour diminuer la consommation énergétique de bâtiments, pour optimiser les transports, etc.

Et pour ce qui est de la santé ?

L’IA a également de nombreuses applications dans le domaine médical, par exemple pour les diagnostics. En apprenant à partir d’images de tumeurs et de cancers, l’IA est capable de diagnostiquer une maladie jusqu’à quatre ans avant un médecin humain. Pour ce qui concerne la découverte de nouveaux médicaments, l’IA réduit les délais de mise sur le marché, de plusieurs mois ou même année, en optimisant les phases de recherche et facilite le développement de nouvelles molécules dans des délais réduits.

Sur la question de l’emploi, 38 % des Français estiment en revanche qu’elle aura un impact négatif. Cette crainte est-elle fondée ?

L’IA va transformer nombre de métiers et automatiser certaines tâches, c’est vrai. La Poste, par exemple, l’utilise comme outil de lecture des adresses, pour accélérer le tri. Grâce à cela, les postiers et postières ont plus de temps à consacrer à des tâches à plus forte valeur ajoutée, comme servir la clientèle. L’intelligence artificielle va effectivement faire naître de nombreux nouveaux métiers. Ce qu’il faut retenir, c’est qu’à l’image de ce qu’il s’est passé historiquement, ce sera une transformation, pas un remplacement. Le rapport de 2019 de l’OCDE affirme ainsi que moins de 15 % des métiers seront automatisés par l’IA, mais que plus de 30 % d’entre eux seront transformés. L’IA règle aussi des problèmes de recrutement : par exemple, on sait que dans le domaine du code informatique et de la programmation, les entreprises ont beaucoup de mal à recruter. Aujourd’hui, on peut créer son site web avec des outils qui s’appuient sur l’IA, et cela ne requiert plus de compétences de développement web. En automatisant des tâches qui par le passé pouvaient être un frein pour certaines personnes, on ouvre le champ des possibles.

Selon vous, quelles sont les futures applications de l’IA ?

La science et le développement technologique sont les deux domaines qui vont le plus bénéficier de l’IA dans un avenir proche. Je pense, par exemple, à l’outil AlphaFold, mis au point par Google DeepMind, qui a modélisé 214 millions de protéines dans une base de données accessible à tous.Très rapidement, nous serons dans une situation où les ingénieurs et les chercheurs pourront s’appuyer sur l’IA pour accélérer leurs progrès technologiques.

Dans cette histoire : IA, Responsabilité Sociale, France

Histoires associées