Entretien avec Mme Laurence Devillers
Selon la chercheuse Laurence Devillers, les IA génératives ne seraient pas une bonne solution pour développer le sens critique, la créativité, la connaissance chez les élèves, et notamment chez les plus jeunes.
Professeure en IA à l’université Paris-Sorbonne, Laurence Devillers est experte en interactions humain/machine, chercheuse au Laboratoire d’informatique pour la mécanique et les sciences de l’ingénieur (Limsi) du CNRS, et présidente de la Fondation Blaise Pascal de médiation en mathématiques et informatique. Elle est l’autrice de plusieurs livres sur l’IA et le numérique, dont Des robots et des hommes, édité par Plon en 2017, Les Robots émotionnels, paru en 2020 aux éditions de l’Observatoire, et La Souveraineté numérique dans l’après-crise, sorti la même année chez le même éditeur.
Pouvez-vous nous rappeler ce que les IA génératives, et plus particulièrement ChatGPT, la plus connue d’entre elles, sont capables de faire et ce qu’elles ne peuvent pas faire ?
Laurence Devillers : ChatGPT est un cas de figure intéressant, car c’est la technologie la plus aboutie dans ce domaine. Avec GPT3, élaboré à partir de 175 milliards de paramètres, et GPT4, cet « agent conversationnel » a bénéficié d’un modèle de fondation, c’est-à-dire un modèle d’intelligence artificielle de grande taille fonctionnant par apprentissage automatique, qui a été entraîné sur des centaines de milliards de données et de textes de toute sorte provenant d’Internet. De ce fait, cet outil est en mesure de répondre à une question, de rédiger une dissertation, de produire une lettre de recommandation, de traduire un texte, de faire une synthèse, d’élaborer un programme, etc. Il aura bientôt une entrée multimodale et pourra ainsi interpréter une image. Cependant, il ne vérifie pas ce qu’il produit, ce qui fait qu’il n’est pas capable de garantir une réponse fiable à l’utilisateur. Rien n’est prévu en ce sens. Cet outil génère du contenu sans conscience, sans émotion, sans intention préalable… Par ailleurs, il perd les sources qu’il a utilisées lorsqu’il propose une réponse. Il y a donc une marge d’erreur potentiellement importante à chaque utilisation.
Très peu de temps après sa sortie, ChatGPT a fait son apparition dans l’enseignement, aussi bien du côté des élèves que de celui des professeurs… D’un point de vue strictement pédagogique, que peut-il apporter ?
L.D. : Les principaux avantages liés à l’utilisation de cette technologie sont la facilité d’accès à un grand nombre de données en temps réel, simplement et rapidement pour le plus grand nombre. D’un point de vue strictement pédagogique, il peut apporter un apprentissage dédié et personnalisé en fonction des besoins de chaque utilisateur, à condition de pouvoir contrôler la véracité de ce qu’il propose.
Peut-on dire que cet outil fait apparaître une nouvelle façon d’apprendre et d’enseigner ?
L.D. : Les outils numériques et les IA génératives ne sont pas une bonne solution pour développer le sens critique, la créativité, la connaissance, chez les élèves, et notamment chez les plus jeunes. ChatGPT produit à l’occasion des fake news, et il est donc important d’avoir la capacité de faire le tri. Cela veut dire avoir du recul et pouvoir faire preuve de discernement, mais aussi savoir déceler une information erronée. Il faut garder la majorité du temps d’apprentissage pour les méthodes classiques, avec du papier et un crayon, sans prothèses numériques. À partir de quel âge peut-on douter de ce que propose ChatGPT et modifier le contenu sans être manipulé par les réponses du système ? Le problème est crucial pour les élèves et devrait nécessairement questionner les adultes.
Justement, ne faudrait-il pas en priorité apprendre aux élèves et au corps enseignant à se servir de cet outil, ce qui n’est pas le cas actuellement ? De toute évidence, il y a un réel manque de pédagogie et de formation…
L.D. : Oui, en effet. Et c’est une question très importante. Il faudrait que les enfants mais aussi les adultes soient initiés le plus tôt possible aux usages de ces nouvelles IA. Nous manquons de pédagogie et de formation agile pour les professeurs, comme pour les élèves. Et il est urgent de corriger le tir. Dans le cadre de la Fondation Blaise Pascal de médiation en mathématiques et informatique, nous avons conçu, grâce à des mécènes, et notamment la Maif et le CNRS, une douzaine de capsules vidéo de deux à quatre minutes sur le thème de l’éthique dans l’IA, qui ne demandent a priori pas de connaissances sur le sujet aux professeurs pour parler des usages de l’IA en classe, et notamment de ChatGPT… C’est un début, mais il faut aller plus loin.
Pour les élèves, quels sont les risques associés à cette technologie ?
L.D. : Si nous sommes seulement des consommateurs devant les IA telles que ChatGPT, il risque d’y avoir une baisse des capacités d’apprentissage. Ne plus apprendre à écrire, à compter, ne plus apprendre la logique, le raisonnement, les langues, ne nous donnera pas les bases pour remettre en doute ce que propose la machine. Par paresse, nous risquons de suivre uniquement les propositions de ChatGPT, sans chercher par nous-mêmes à réfléchir. Cela pourrait provoquer un déclin cognitif.
Selon vous, est-ce que ce mouvement est inéluctable ? Va-t-on aller vers toujours plus d’intelligence artificielle et un développement toujours plus important d’outils comme ChatGPT ?
L.D. Oui, c’est le cas. Le mouvement vers plus d’IA est inéluctable, et c’est pour cette raison qu’il faut travailler sur l’accompagnement, la formation, l’apprentissage de ces outils, mais aussi sur les réflexions éthiques qu’ils suscitent et les garde-fous que l’on pourrait mettre en place. Nous avons indéniablement besoin de réguler les IA génératives avant de les laisser utiliser par des enfants à l’école. En ouvrant ChatGPT à tous, en le démocratisant, Sam Altman, le CEO d’OpenAI, a réussi un formidable hold-up. Mais, étant donné que ChatGPT fait des erreurs, et que cela est désormais prouvé, saurons-nous les déceler si nous n’apprenons pas les pièges que recèlent ces machines et si les ingénieurs ne soulèvent pas le capot de la voiture pour décortiquer le fonctionnement du moteur ? La régulation doit servir à poser des limites, mais aussi à exiger plus de transparence afin de pouvoir produire une évaluation précise et fiable de cet outil. Elle n’est pas seulement utile pour encadrer l’utilisation de ChatGPT et éviter ainsi de potentielles dérives, elle est en fait indispensable pour s’en servir correctement.
Les IA génératives représentent un phénomène récent dans nos vies. À quoi peut-on s’attendre pour la suite ?
L.D. : La prochaine étape à laquelle nous devons nous préparer est l’arrivée des « robots émotionnels », une nouvelle génération d’IA qui sera capable de prendre en considération nos émotions grâce à l’analyse de notre visage, à l’interprétation de nos gestes, de nos postures… Ces machines existent déjà, à l’instar des robots Pepper, Nao et Buddy, pour aider les enfants à renforcer leur confiance en eux et leurs compétences sociales, mais elles n’en sont encore qu’à un stade limité de développement. Demain, les robots émotionnels pourront détecter nos peurs, nos angoisses, nos tristesses, et seront programmés pour nous assister et nous réconforter. Ce seront nos anges gardiens numériques. En matière d’éducation, de la même manière, ces machines seront capables d’épauler un élève en difficulté, de l’aider à surmonter un obstacle ou à résoudre un problème. Mais il faut se méfier, car il y aura un contrecoup… : dépendance affective, isolement, perte de liberté, amplification des stéréotypes et des risques réels de manipulation. Il faudra nécessairement mettre l’éthique au cœur du fonctionnement de ces nouvelles IA et exercer un contrôle sur leur utilisation.
Texte source : Les IA génératives pourraient provoquer un déclin cognitif
Publié sur L’ADN par Arnaud Pagès le 13 novembre 2023