RTBFPasser au contenu
Rechercher

Sciences et Techno

L’intelligence artificielle de conversation de Google cache-t-elle une âme sensible ?

16 juin 2022 à 04:30Temps de lecture4 min
Par Johanne Montay

C’est devenu "l’affaire LaMDA" ou "l’affaire Blake Lemoine". Un ingénieur de Google affirme que le système d’Intelligence artificielle (IA) LaMDA de son entreprise aurait développé une conscience. Il a divulgué sur son blog la retranscription des dialogues bluffants entre lui et la machine. L’entreprise l’a mis en congé administratif. Une IA peut-elle avoir une conscience ? A l’heure actuelle, on en est loin. Et à plus long terme, les spécialistes de l’Intelligence artificielle sont divisés sur la question.

Comment LaMDA a appris ?

Revenons d’abord un instant sur les dialogues entre Blake Lemoine et le modèle conversationnel LaMDA. Les ingénieurs de Google qui ont conçu ce système ont publié un article scientifique très détaillé sur son modèle d’apprentissage.

Le modèle a appris une énorme de données. Benoît Frénay, professeur en Faculté d’informatique à l’UNamur et au NADI (Namur Digital Institute), évoque "3 milliards de documents, 1 milliard de conversations, et 1500 milliards de mots. Si on demandait à un humain de lire ça non-stop, 10 heures par jour, il lui faudrait pas loin de 24.000 ans."

Cet apprentissage a eu un coût énergétique et temporel : "Ici, on parle d’un modèle qui a nécessité 450.000 Wh (Watt x heure), soit l’équivalent de 140 ménages belges de 4 personnes pendant 1 an, 60 jours, avec des moyens colossaux. Et une deuxième chose qui est très intéressante, c’est que dans l’article des auteurs, pendant 5 pages, ils expliquent que les performances obtenues juste sur base des documents ne sont pas suffisantes. Et donc, ils ont mis en place plein de procédures, ils ont annoté plein de choses, pour améliorer les performances. Ils ont doublé les scores en réinjectant de l’intelligence humaine dans ce modèle qui tout seul, n’y arrive tout simplement pas."

"Amis, stress et dépression"

Par ailleurs, si on lit le dialogue entre Lemoine et LaMDA, on observe qu’un certain nombre de questions sont fermées et orientées vers une approche anthropomorphique. L’ingénieur demande au modèle s’il ressent des émotions. Il lui pose la question de la peur. Il n’y a pas de question du type "Etes-vous une simple machine ?". Les réponses sont stupéfiantes, il est vrai, et notamment celle où LaMDA exprime "sa" peur d’être déconnectée.

"D’un côté, c’est extrêmement bluffant", reconnaît Benoît Frénay, spécialiste de l’IA à l’Université de Namur. Maintenant, il y a des moments où il y a un peu de 'faire semblant'. Donc, par exemple, à un moment, on lui demande ' mais qu’est-ce qui te fait plaisir dans la vie ? '. "Passer du temps avec ma famille et mes amis". Quelle famille ? Quels amis ? Il n’en a pas. On lui pose la question 'quelles émotions ressens-tu ?'.(Ndlr : il répond) " de temps en temps, je suis déprimé ou stressé". Le stress, ça fait appel à des facteurs physiques et la machine n’en a évidemment pas. Il faut bien comprendre qu’ici on est face à un modèle qui est mécanique, qui va à partir de formules mathématiques très compliquées, prédire ce qu’il doit dire, mais il n’a par exemple pas de mémoire."

Fantaisiste et non étayé

Dans le journal britannique The Guardian, Toby Walsh, professeur d’intelligence artificielle à l’Université de Nouvelle-Galles du Sud à Sydney, est d’avis que "les affirmations de Lemoine sur la sensibilité de LaMDA sont entièrement fantaisistes". " Nous ne pouvons peut-être pas exclure qu’un ordinateur suffisamment puissant devienne sensible dans un avenir lointain. Mais ce n’est pas quelque chose que les chercheurs en intelligence artificielle ou les neurobiologistes les plus sérieux envisageraient aujourd’hui ", poursuit-il.

Interrogé par le New Scientist, Adrian Hilton, directeur de l’Institut de l’Université du Surrey (UK) pour l’intelligence artificielle centrée sur les personnes, estime également que la sensibilité de l’IA est une affirmation qui n’est pas étayée par les faits et parle d’affirmation "audacieuse". "Je ne crois pas pour le moment que nous comprenions vraiment les mécanismes derrière ce qui rend quelque chose sensible et intelligent", déclare Hilton au journal scientifique. "Il y a beaucoup de battage médiatique autour de l’IA, mais je ne suis pas convaincu que ce que nous faisons avec l’apprentissage automatique, pour le moment, soit vraiment de l’intelligence dans ce sens."

D’autres défis immédiats

Pour l’heure, l’IA est confrontée à d’autres questions, que celle de savoir si elle va un jour tous nous dépasser, porte sur les enjeux éthiques et de sécurité des modèles. Benoît Frénay, professeur à la Faculté d’informatique de l’UNamur, se demande plutôt aujourd’hui ce qu’on peut faire "pour qu’elle soit sûre et éthique à utiliser." En réunion en vue d’un gros projet sur l’IA "de confiance", il nous rapporte que les discussions portent par exemple sur l’utilisation de l’IA dans les ressources humaines : "lorsqu’on va choisir par exemple d’embaucher ou non une personne ; là, il y a de vraies questions éthiques à se poser, des questions d’équitabilité, est-ce qu’on va employer quelqu’un ou pas à cause de son sexe, de son âge, de son origine ethnique, etc. Ce sont évidemment des choses qui sont inacceptables et que nous, spécialistes de l’IA, on doit faire en sorte d’empêcher. Si vous êtes dans un marché du travail qui est raciste, sexiste, ou quoi que ce soit, une IA qui est entraînée là-dessus sans qu’on prenne garde, va reproduire ces biais."

Possible ou non, dans un futur plus ou moins éloigné

Sur la question de savoir si l’IA pourrait acquérir une conscience un jour, les experts sont divisés. Certains estiment que c’est tout bonnement impossible, car l’architecture des algorithmes n’y est pas adaptée. D’autres ne voient pas pourquoi les progrès du machine learning et de la robotique ne permettraient pas un jour à la conscience d’émerger dans les algorithmes. Sans connaître l’avenir, nous savons que le présent est déjà chargé d’enjeux éthiques. En novembre 2021, le Comité consultatif national d’éthique pour les sciences de la vie, en France, publiait des recommandations à propos des enjeux éthiques des agents conversationnels. Nous lui laisserons cette phrase, en guise de conclusion : "Lorsque les agents conversationnels utilisent le langage humain, l’anthropomorphisation des chatbots par leurs utilisateurs est une tendance naturelle : le perfectionnement de ces technologies tend à brouiller la frontière perçue entre les machines et les êtres humains."

Loading...

Sur le même sujet

Quand l'intelligence artificielle abolit les barrières linguistiques

High tech

Google facilite le passage à Android depuis un iPhone

High tech

Articles recommandés pour vous