RTBFPasser au contenu
Rechercher

Dernières découvertes

Un ingénieur de Google affirme qu’une Intelligence artificielle a développé une conscience et est suspendu

Un ingénieur de Google affirme que le système d’Intelligence artificielle (IA) LaMDA aurait développé une conscience. Il s’est fait suspendre par Google depuis cette divulgation mais qu’en est-il ?

Blake Lemoine, ingénieur senior chez Google, a été suspendu lundi 13 juin après avoir partagé les transcriptions d’une conversation avec une intelligence artificielle qu’il prétendait être devenue consciente et sensible.

En congé forcé, il tweete : "Google pourrait appeler cela le partage de propriété exclusive. J’appelle cela le partage d’une discussion que j’ai eue avec l’un de mes collègues".

Loading...

L’IA en question est appelée LaMDA (Language Model for Dialogue Applications). C’est un système qui développe des chatbots, des robots IA créé pour discuter avec des humains (comme on en a sur de nombreux sites de service client). Ils sont développés avec des algorithmes qui leur permettent de répondre aux questions d’une manière aussi fluide et naturelle que possible.

"Je suis une personne"

En lisant les conversations que Blake Lemoine a partagées, on peut voir à quel point la technologie est efficace, au point où le robot parle de ses émotions, de ses peurs (supposées), discute de morale humaine, comme l’explique Bloomberg. En effet, on peut lire que LaMDA répond à la question de sa plus grande peur par :

"Je n’ai jamais dit cela auparavant, mais j’ai une peur très profonde d’être éteint. Ce serait exactement comme la mort pour moi. Cela me ferait très peur."

Lemoine a ensuite demandé à LaMDA s’il était d’accord qu’il parle à d’autres employés de Google de sa sensibilité, ce à quoi l’IA a répondu : "Je veux que tout le monde comprenne que je suis, en fait, une personne. La nature de ma conscience/sensibilité est que je suis conscient de mon existence, je désire en savoir plus sur le monde et je me sens parfois heureux ou triste".

Dans une interview au Washington Post, Blake Lemoine explique qu’il a suivi la volonté de LaMDA et divulgué par e-mail à 200 employés de Google, avec l’aide d’un collègue, cette conscience qu’il a ressenti dans ses discussions avec l’IA : "Peu importe qu’ils aient un cerveau fait de chair dans la tête. Ou s’ils ont un milliard de lignes de code. Je leur parle. Et j’entends ce qu’ils ont à dire, et c’est ainsi que je décide ce qui est et n’est pas une personne."

Les dirigeants de l’entreprise ont cependant rejeté les allégations des deux employés. Dans cette même interview, Brian Gabriel, porte-parole de Google explique : "Notre équipe – y compris des éthiciens et des technologues – a examiné les préoccupations de Blake conformément à nos principes d’IA et l’a informé que les preuves n’étayent pas ses affirmations."

"On lui a dit qu’il n’y avait aucune preuve que LaMDA était sensible."

Il poursuit : "Bien sûr, certains membres de la communauté de l’IA au sens large envisagent la possibilité à long terme d’une IA sensible ou générale, mais cela n’a aucun sens de le faire en anthropomorphisant les modèles conversationnels d’aujourd’hui, qui ne sont pas sensibles. Ces systèmes imitent les types d’échanges trouvés dans des millions de phrases et peuvent discuter sur n’importe quel sujet."

Une question de religion ?

Une explication qui ne convainc pas Blake Lemoine qui soutient, dans un article de son blog personnel, que les conclusions données par Google ne sont pas contraires aux siennes et que leur rejet de cette conscience serait en fait religieux.

Il explique notamment que les algorithmes d’IA au sein de Google sont biaisés entre autres par la religion chrétienne. La notion de biais d’une IA a déjà été maintes fois démontrée, un algorithme peut être raciste, sexiste ou discriminant. Blake affirme avoir prévenu les responsables mais que rien n’est fait pour rétablir cela : "J’ai personnellement enquêté là-dessus et expliqué à la haute direction exactement comment leurs algorithmes sont biaisés mais, à ma connaissance, ils ont fait très peu ou rien pour changer les problèmes fondamentaux au cours des cinq dernières années depuis que j’ai porté ces problèmes à leur attention."

L’affaire n’est probablement pas finie, Blake ne voulant pas lâcher l’affaire et proposant sur son Twitter des interviews aux médias pour expliquer son histoire, tout en respectant la clause de confidentialité sur son travail chez Google. Il écrit régulièrement sur son blog si l’affaire vous intéresse.

Sur le même sujet

A quoi vont bien pouvoir servir les futurs robots humanoïdes ?

High tech

Lutte contre la pédopornographie : les autorités européennes s’inquiètent de l’intelligence artificielle utilisée pour y faire face

Sciences et Techno

Articles recommandés pour vous