High tech

Pour les employés de Google, l’IA Bard serait "pire qu'inutile"

© Unsplash

Par Anthony Mirelli

Bard, l’intelligence artificielle de Google, ne parvient pas à séduire les utilisateurs. Lancée trop rapidement, afin de ne pas laisser trop d’avance à Microsoft et OpenAI, l’IA a même du mal à convaincre en interne.

Selon des informations obtenues par Bloomberg, Bard serait vu d’un mauvais œil par certains employés. Bard serait "un menteur pathologique", selon des captures d'écran obtenues par Bloomberg. Pour un autre employé, "Bard est pire qu'inutile." Son conseil ? "S'il vous plaît, ne lancez pas cette IA".

Autre exemple : "un employé a écrit que lorsqu'il demandait à Bard des suggestions pour faire atterrir un avion, il donnait régulièrement des conseils qui conduiraient à un crash ; un autre a déclaré qu'il donnait des réponses sur la plongée sous-marine qui entraîneraient probablement des blessures graves ou la mort", peut-on lire dans l’article.

Toujours selon le média américain, Google aurait "annulé une évaluation des risques" soumise par une équipe de sécurité interne, indiquant que Bard n'était pas prêt pour une utilisation par le grand public. "Le géant de la recherche sur Internet, qui jouit d'une grande confiance, fournit des informations de qualité médiocre dans une course à la concurrence, tout en accordant moins d'importance à ses engagements éthiques", écrivent les journalistes Davey Alba et Julia Love.

Pour Brian Gabriel, porte-parole de Google, l'éthique de l'IA resterait une priorité absolue pour l'entreprise : "Nous continuons à investir dans les équipes qui travaillent à l'application de nos principes d'IA à notre technologie", a-t-il déclaré. L’avenir nous dira si la firme de Mountain View parviendra à corriger le tir.

Inscrivez-vous aux newsletters de la RTBF

Info, sport, émissions, cinéma... Découvrez l'offre complète des newsletters de nos thématiques et restez informés de nos contenus

Articles recommandés pour vous