Sciences et Techno

Pourquoi ChatGPT et l’intelligence artificielle sont-ils un "risque pour l’humanité"?

Les logos d’OpenAI et ChatGPT à Toulouse, le 23 janvier dernier.

© Tous droits réservés

Temps de lecture
Par Quentin Warlop, Aline Goncalves avec agences

C’est une lettre ouverte signée par un groupe d’experts dans le secteur de l’intelligence artificielle. Elon Musk et des centaines d’experts mondiaux ont signé un appel à une pause de six mois dans la recherche sur les intelligences artificielles plus puissantes que ChatGPT 4, le modèle d’OpenAI lancé mi-mars.

Elon Musk n’est pas le seul signataire de cette lettre. La revendiquent aussi le cofondateur d’Apple Steve Wozniak, des membres du laboratoire d’IA (Intelligence Artificielle) de Google DeepMind, le patron de Stability AI Emad Mostaque, concurrent d’OpenAI, ainsi que des experts en IA et des universitaires américains, des ingénieurs cadres de Microsoft, groupe allié de OpenAI. Yuval Noah Harari, l’auteur de "Sapiens" les a également rejoints.

Le logo de ChatGPT à Washington, le 15 mars 2023.
Le logo de ChatGPT à Washington, le 15 mars 2023. © Tous droits réservés

Risques majeurs pour l’humanité ?

Dans leur lettre ouverte, ce groupe d’experts évoque "des risques majeurs pour l’humanité". Mais de quoi peut-il s’agir ? "On a mis sur le marché des outils d’une sérieuse puissance. Mais cela peut créer des mouvements et des troubles sociaux quand on voit leur capacité à manipuler les vérités. Cela doit susciter une réflexion", explique Hugues Bersini, directeur du laboratoire d’intelligence artificielle à l’ULB - IRIDIA.

Un moratoire demandé

Dans cette pétition parue sur le site futureoflife.org, les signataires réclament un moratoire jusqu’à la mise en place de systèmes de sécurité, dont de nouvelles autorités réglementaires dédiées, une surveillance des systèmes d’IA, des techniques pour aider à distinguer le réel de l’artificiel et des institutions capables de gérer les "perturbations économiques et politiques dramatiques (en particulier pour la démocratie) que l’IA provoquera".

"Ce n’est pas surprenant. Et ce n’est pas une mauvaise idéeLe vrai souci de ces logiciels, c’est leur capacité à inventer des réalités alternatives. Nous sommes déjà en train de nous battre contre les fake news inventées par des humains qui ont envie de détourner les faits à leur profit. Imaginez que vous avez aujourd’hui des intelligences artificielles qui peuvent non seulement débiter des âneries mais qui peuvent aussi proposer des images, des sons et des films extrêmement réalistes tout en étant totalement faux. La grosse difficulté, c’est de faire la différence entre l’authentique et le factice. Et de mettre en place un outil qui le fasse automatiquement." estime Hugues Bersini.

Également signataire, Yoshua Bengio, pionnier canadien de l’IA, a exprimé ses préoccupations lors d’une conférence de presse virtuelle à Montréal : "Je ne pense pas que la société est prête à faire face à cette puissance-là, au potentiel de manipulation par exemple des populations qui pourrait mettre en danger les démocraties". "Il faut donc prendre le temps de ralentir cette course commerciale qui est en route", a-t-il ajouté, appelant à discuter de ces enjeux au niveau mondial, "comme nous l’avons fait pour l’énergie et les armes nucléaires".

Le PDG d’OpenAI, Sam Altman, prend la parole lors d’un discours annonçant l’intégration de ChatGPT au sein de Microsoft à Redmond, Washington, le 7 février 2023.
Le PDG d’OpenAI, Sam Altman, prend la parole lors d’un discours annonçant l’intégration de ChatGPT au sein de Microsoft à Redmond, Washington, le 7 février 2023. © Tous droits réservés

Le créateur de ChatGPT "effrayé"

Sam Altman, patron d’OpenAI, concepteur de ChatGPT, a lui-même reconnu être "un petit peu effrayé" par sa création si elle était utilisée pour de "la désinformation à grande échelle ou des cyberattaques". "La société a besoin de temps pour s’adapter", avait-il déclaré à ABCNews mi-mars.

Dans leur lettre, les experts expliquent encore que "ces derniers mois ont vu les laboratoires d’IA s’enfermer dans une course incontrôlée pour développer et déployer des cerveaux numériques toujours plus puissants, que personne – pas même leurs créateurs – ne peut comprendre, prédire ou contrôler de manière fiable", estiment-ils.

L’IA, c’est quoi ?

Interrogé sur la définition même de ce qu’est l’Intelligence artificielle, ChatGPT nous répond en quelques secondes :

"L’intelligence artificielle (IA) est un domaine de l’informatique qui vise à créer des machines capables de réaliser des tâches qui nécessitent normalement l’intelligence humaine, comme la perception, la reconnaissance de la parole, le raisonnement, la planification et l’apprentissage. Les technologies d’IA sont basées sur des algorithmes informatiques sophistiqués qui peuvent analyser de grandes quantités de données et utiliser des modèles mathématiques pour détecter des schémas et prendre des décisions. L’IA est utilisée dans de nombreuses applications pratiques, telles que la reconnaissance vocale, la conduite autonome, la médecine personnalisée, la détection de fraudes, la sécurité et la gestion des stocks. Cependant, l’IA pose également des défis éthiques et sociaux, tels que la protection de la vie privée, la discrimination algorithmique et la sécurité des systèmes. En somme, l’IA est un domaine complexe et en constante évolution qui promet de révolutionner la façon dont nous vivons, travaillons et interagissons avec la technologie."

Que faire à l’avenir ?

"Devons-nous laisser les machines inonder nos canaux d’information de propagande et de mensonges ? Devrions-nous automatiser tous les emplois, y compris ceux qui sont gratifiants ? Devons-nous développer des esprits non humains qui pourraient un jour être plus nombreux, plus intelligents, nous rendre obsolètes et nous remplacer ? Devons-nous risquer de perdre le contrôle de notre civilisation ? Ces décisions ne doivent pas être déléguées à des leaders technologiques non élus", concluent-ils.

Quelles solutions à l’avenir ?

Et le directeur du laboratoire d’intelligence artificielle à l’ULB IRIDIA de poursuivre : "On va trop vite en mettant ce genre de produits sur le marché. Le pouvoir de ces IA est énorme. Il faut donc une réflexion profonde sur le rôle de ces outils et comment les utiliser. Il faut une amélioration profonde. À l’image du secteur pharmaceutique, on ne met pas n’importe quel médicament sur le marché sans des tests importants. Le problème, c’est que ces tests, ils sont faits à grandeur humaine. Or, ces outils se servent de l’expérience pour s’enrichir. Ils se nourrissent de tout cela. On a vu qu’avec l’exemple d’expérience chez 'Microsoft', le programme a commencé à devenir totalement injurieux, raciste et violent parce que certains l’utilisaient comme cela."

Il conclut : "On a mis sur le marché des outils d’une sérieuse puissance. Mais que fait-on de ces outils ? Doit-on et peut-on les laisser en libre accès ? C’est possible de produire des ‘filets de sécurité’. Mais c’est précisément cela qui prend du temps. Par exemple, le gros souci de ChatGPT, c’est qu’il n’arrive pas, pour le moment, à citer ses sources. Il faut qu’il puisse citer ses sources. Sinon, il y aura toujours des erreurs".

Et les erreurs, à cette échelle et avec une telle force persuasive, risquent de se payer cher et devenir difficilement réversibles.

Sur le même thème :

Inscrivez-vous à la newsletter Tendance

Mode, beauté, recettes, trucs et astuces au menu de la newsletter hebdomadaire du site Tendance de la RTBF.

Sur le même sujet

Articles recommandés pour vous