Un permis de tuer accordé aux intelligences artificielles? Une vidéo qui fait froid dans le dos

Terminator, l'incarnation même du robot tueur dans notre culture

© Frazer Harrison - AFP

Temps de lecture
Par Adeline Louvigny

C'est une vidéo qui ressemble à n'importe quelle keynote, n'importe quelle conférence qui annonce le développement de telle ou telle technologie. Sauf qu'ici, l'homme sur scène nous parle de robots tueurs autonomes. Aucun humain pour décider d'appuyer sur la gâchette, juste une intelligence artificielle. Comment choisit-il sa cible ? Par reconnaissance faciale, en utilisant le big data, cette masse de données personnelles que nous partageons en permanence dans le monde virtuel. "Il pourra reconnaître le bon, du méchant. Sans hésiter, sans rater sa cible."

Se superposent à cette conférence, des images de journaux télévisés, montrant une réalité où ce sont des machines qui tuent. Les images d'un appel entre une mère et son fils. Un jeune homme qui a eu le malheur de partager une vidéo dénonçant la corruption des politiques... Et de se poser la question : qui sera le "méchant" dans ce monde-là ?

Slaughterbots

Pour voir ce contenu, connectez-vous gratuitement

Cette vidéo, fictive, dépeignant un avenir peu glorieux, pourrait trouver sa place dans la série Black Mirror. Elle a été diffusée par le chercheur en intelligence artificielle Stuart Russel, à la Convention de l'ONU sur les armes classiques. Une vidéo qui illustre l'appel lancé par des milliers de scientifiques à travers le monde, via une lettre ouverte, signée entre autres par Google DeepMind et Elon Musk, le fondateur de Tesla. Leur message est clair : la décision de prendre la vie à un humain ne doit jamais être déléguée à une machine. Ils insistent sur le fait que des armes dirigées par des intelligences artificielles sont bien différentes des armes classiques, nucléaires ou biologiques. "La stigmatisation et la prévention d'une telle course à l'armement devraient être une priorité absolue pour la sécurité nationale et mondiale".

Cette mobilisation des chercheurs en intelligence artificielle contre des dérives militaires et autoritaires n'est pas neuve. Déjà en 2015, plus de 20.000 experts, dont Stephen Hawking, avaient signé une lettre mettant déjà en garde contre les armes autonomes. Aujourd'hui, en 2018, Stuart Russel, se veut plus pressant : les technologies décrites dans la vidéo diffusée à l'ONU existent déjà.

Pas de robots tueurs en Belgique

Du côté des décideurs, la Belgique fait office de pionnière. Cet été, une résolution demandant de ne pas utiliser de robots tueurs dans les opérations militaires a été adoptées à la Chambre. Mais de nombreux puissances militaires continuent activement leurs programmes de développement de systèmes d'armes létales autonomes. A l'ONU, l'on est encore à se demander lors d'une conférence en avril dernier comment définir clairement un robot tueur, et à partir de quand l'on peut (ou non) l'autoriser à tuer.

Recevez une fois par jour l'essentiel de l'info

Chaque matin vers 10h (du lundi au vendredi), recevez un condensé des principaux titres de la rédaction web de la RTBF. Et en cas d’événement majeur, soyez les premiers informés par nos newsletters flash.

Articles recommandés pour vous