L’affaire a secoué le milieu de l’intelligence artificielle, début juin : Blake Lemoine, un ingénieur de Google, a déclaré auprès du Washington Post que le modèle de reconnaissance du langage LaMDA était probablement conscient. Très vite, des experts du domaine – et Google lui-même – se sont élevés contre ce postulat. LaMDA est un système créé pour mimer des conversations aussi réelles que possibles, mais cela ne signifie pas qu’il comprend ce qu’il dit. Au contraire, argumentent plusieurs scientifiques, soulever sans cesse le débat de la conscience des IA détourne l’attention des questions que ces technologies posent de manière plus urgente.
La vieille obsession de l’intelligence des robots… Argument marketing ?
L’hypothèse d’une conscience de nos technologies n’a rien de neuf – elle traîne dans nos imaginaires depuis le Frankenstein de Mary Shelley et le succès croissant de la science-fiction. Imiter le raisonnement humain est aussi au fondement du test de Turing, expérience visant à estimer si une machine parvient à se faire passer pour un homme auprès d’un observateur extérieur. L’un des pères de l’informatique moderne, John von Neumann, a de son côté jeté les bases des architectures informatiques modernes en les calquant sur le fonctionnement du cerveau.
« Encore aujourd’hui, beaucoup de gens financent la recherche et travaillent dans cette direction », pointe la professeure en intelligence artificielle au LIMSI/CNRS Laurence Devillers. Et de citer Elon Musk, fondateur d’Open AI, Yann LeCun, responsable de la recherche en IA chez Meta, lorsqu’il évoque la possibilité que certaines machines ressentent des émotions, Blaise Agüera y Arcas, vice-président chez Google, lorsqu’il décrit LaMDA comme un cortex artificiel… « Qu’un ingénieur déclare LaMDA conscient a un intérêt marketing, explique la chercheuse. Cela place Google dans un univers concurrentiel. »
Quand l’empathie nous trompe
De fait, LaMDA n’est ni le premier robot capable de susciter l’empathie, ni le premier modèle algorithmique susceptible de produire une conversation écrite crédible. Dans les années 1960, l’informaticien Joseph Weizenbaum a par exemple construit Eliza, un programme simulant les réponses d’un psychothérapeute. La machine a si bien fonctionné que les gens lui dévoilaient des détails intimes. On appelle désormais « effet Eliza » la propension humaine à attribuer plus de facultés à un système technique qu’il ne peut en posséder. Plus proche de LaMDA, le large modèle de reconnaissance du langage GPT-3, disponible depuis 2020, est aussi capable de se faire passer de manière crédible pour un journaliste, un écureuil ou pour un William Shakespeare ressuscité.
Mais que des utilisateurs, experts ou non, puissent prendre ces résultats pour de la conscience, voilà qui frustre un nombre croissant de scientifiques. C’est un abus de nos facultés d’empathie, estime la linguiste Emily Bender, celles-là mêmes qui nous font projeter un semblant d’humanité dans des objets inanimés. LaMDA, rappelle Laurence Devillers, est « fondamentalement inhumain » : le modèle a été entraîné sur 1,560 milliard de mots, il n’a ni corps, ni histoire, il produit ses réponses en fonction de calculs de probabilité…
L’intelligence artificielle est un problème de justice sociale
Peu de temps avant l’affaire Lemoine, la doctorante en philosophie Giada Pistilli déclarait qu’elle ne s’exprimerait plus sur l’éventuelle conscience des machines : cela détourne l’attention des problématiques éthiques et sociales déjà existantes. En cela, elle suit la ligne que tracent Timnit Gebru et Margaret Mitchell, deux pontes de la recherche en éthique de l’IA licenciées par Google… pour avoir souligné les risques sociaux et environnementaux que posent les larges modèles de langage. « C’est une question de pouvoir, analyse Raziye Buse Çetin, chercheuse indépendante en politique de l’IA. Est-ce qu’on met en lumière et finance la quête d’une machine que l’on rêve de rendre consciente, ou plutôt les tentatives de corriger les biais sociaux, sexistes ou racistes des algorithmes déjà présents dans notre quotidien ? »
Les problèmes éthiques des algorithmes qui nous entourent au quotidien sont innombrables : sur quelles données les entraîne-t-on ? Comment corrige-t-on leurs erreurs ? Que fait-on des textes que les utilisateurs envoient aux robots de discussion construits grâce à des modèles similaires à LaMDA ? Aux États-Unis, une association d’écoute de personnes suicidaires a utilisé les réponses reçues de ces personnes en grande vulnérabilité pour entraîner des technologies commerciales. « Est-ce que c’est acceptable ? On a besoin de réfléchir à la manière dont les données sont utilisées aujourd’hui, à la valeur de notre consentement face à des algorithmes dont on ne soupçonne quelquefois même pas la présence, de regarder leurs effets agrégés puisque les algorithmes sont déjà très utilisés dans l’éducation, le recrutement, les scores de crédit… »
Régulation et éducation
Le sujet de la conscience de l’IA empêche d’approfondir les discussions « sur les limitations techniques de ces technologies, les discriminations qu’elles provoquent, leurs effets sur l’environnement, les biais présents dans les données », liste Tiphaine Viard, maîtresse de conférence à Telecom Paris. En coulisse, ces débats agitent les milieux scientifiques et législatifs depuis plusieurs années déjà, car, selon la chercheuse, « les enjeux sont similaires à ce qu’il s’est passé pour les réseaux sociaux. » Les grandes entreprises de la tech ont longtemps dit qu’elles n’avaient pas besoin d’être régulées, qu’elles se débrouilleraient : « Résultat, quinze ans plus tard, on se dit qu’il y a besoin d’un regard politique et citoyen. »
Quel cadre, alors, pour éviter que les algorithmes ne fassent du tort à la société ? L’explicabilité et la transparence des modèles sont deux des axes discutés, notamment, pour permettre une réglementation européenne de l’IA. « Et ce sont de bonnes pistes, continue Tiphaine Viard, mais à quoi est-ce que ça doit ressembler ? Qu’est-ce qu’une bonne explication ? Quels sont les points de recours possibles si celle-ci montre qu’il y a eu discrimination ? » Il n’existe, pour le moment, aucune réponse fixe.
L’autre grand sujet, souligne Laurence Devillers, est celui de l’éducation. « Il faut former très tôt aux enjeux que posent ces objets socio-techniques », enseigner le code, faire comprendre le fonctionnement des algorithmes, permettre de monter en compétences… Autrement, face à des machines construites pour imiter l’humain, « les utilisateurs risquent d’être manipulés. » L’éducation, continue l’informaticienne, sera le meilleur moyen de permettre « à chacun de réfléchir aux manières de s’adapter à ces technologies pointues, aux frictions qu’on veut y implémenter, à leurs freins, à leur acceptabilité. » Et de pousser pour la construction d’un écosystème éthique, « où les industriels ne soient pas chargés de leur propre régulation. »
Source: Lire L’Article Complet