Sciences et Techno

ChatGPT : des travailleurs kényans payés 2 $ de l’heure pour rendre le robot plus sûr, selon une enquête du Time

© getty images

Depuis l’annonce de sa sortie, il y a quelques semaines, le robot conversationnel de la société OpenAI appelé ChatGPT fait beaucoup parler de lui. Le succès semble au rendez-vous au point d’intéresser des entreprises comme Microsoft qui serait prêt à investir dans la société derrière ChatGPT.

Le magazine d’information américain Time a sorti ce 18 janvier une enquête exclusive qui révèle que des travailleurs kényans externalisés ont gagné moins de deux dollars de l’heure pour rendre ChatGPT plus sûr en évitant qu’il ne soit influencé par des propos violents, sexistes et racistes trouvés sur internet. L’enquête montre aussi le rôle important de ces travailleurs de l’ombre pour rendre le robot d’OpenAI plus sûr pour les utilisateurs.

Loading...

Depuis l’annonce de sa sortie, il y a quelques semaines, le robot conversationnel de la société OpenAI appelé ChatGPT fait beaucoup parler de lui. Le logiciel est capable de rédiger un texte sur base d’une question que vous lui posez par écrit sur un tas de sujets. Les résultats sont souvent impressionnants.

Pour arriver à ce résultat il a fallu entraîner l’intelligence artificielle (IA) à partir d’une quantité importante de données. Or, si internet regorge d’informations utiles, le Time rappelle que "certaines parties d’internet sont remplies de toxicité et de préjugés". GPT-3, le prédécesseur de ChatGPT était déjà impressionnant dans son fonctionnement, rappelle le magazine, mais "il était également enclin à émettre des remarques violentes, sexistes et racistes."

Dans l’article du magazine américain on apprend que la société OpenAI a mis en place un système de sécurité alimenté par l’intelligence artificielle afin de "contenir ce préjudice, produisant un chatbot adapté à un usage quotidien." Ce système de sécurité est inspiré du travail d’autres entreprises des médias sociaux "qui avaient déjà montré qu’il était possible de créer des IA capables de détecter des propos toxiques comme les discours de haine afin de les retirer de leurs plateformes."

Et pour que ce détecteur alimenté par une intelligence artificielle soit capable de filtrer et étiqueter les propos toxiques, il faut l’entraîner en lui proposant des exemples étiquetés de violence, de discours haineux et d’abus sexuels.

OpenAI a dès lors "envoyé des dizaines de milliers de bribes de texte à une entreprise de sous-traitance au Kenya", explique le Time. "Certains décrivaient des situations avec des détails graphiques tels que des abus sexuels sur des enfants, la bestialité, le meurtre, le suicide, la torture, l’automutilation et l’inceste."

L’équipe chargée de ce travail reçoit un salaire "entre environ 1,32 et 2 dollars de l’heure en fonction de l’ancienneté et des performances." Le magazine a pu consulter des centaines de documents internes à OpenAI et à SAMA (partenaire en matière d’externalisation au Kenya pour OpenAI). Quatre employés ont accepté de parler sous le couvert de l’anonymat, "car ils craignaient pour leurs moyens de subsistance."

Un des travailleurs chargé de lire et étiqueter le texte a raconté au Time des scènes de relations sexuelles extrêmement crues. "C’était de la torture", témoigne-t-il. Des employés ont expliqué qu’ils étaient censés lire entre 150 et 200 extraits par équipe de 9 heures. Un chiffre contesté par SAMA, l’entreprise qui aurait signé trois contrats pour un total de 200.000 dollars pour réaliser le travail.

Loading...

Sur le même sujet : Extrait Matin Première (11/01/2023)

Le focus

Pour voir ce contenu, connectez-vous gratuitement

Inscrivez-vous à la newsletter Tendance

Mode, beauté, recettes, trucs et astuces au menu de la newsletter hebdomadaire du site Tendance de la RTBF.

Articles recommandés pour vous