Ubisoft et Riot Games, deux géants du jeu vidéo, s’allient et lancent le programme "Zero Harm in Comms" pour mettre fin au harcèlement en ligne. À terme, ils souhaitent implémenter une IA capable de détecter et d’agir face aux comportements toxiques.
Les comportements toxiques sont légion dans les jeux vidéo en ligne et peuvent ruiner l’expérience de beaucoup de joueurs, voire pire. Ces comportements sont souvent amplifiés lorsqu’ils prennent pour cible des femmes, que ce soit sur la plateforme Twitch ou dans l’esport en général. Selon une enquête de 2019 réalisée par l’Anti-Defamation League, 74% des adultes auraient été victimes de harcèlement en jouant en ligne.
Chaque éditeur essaye, plus ou moins efficacement, de modérer ces comportements sur ses jeux mais force est de constater que rien n’y met réellement fin. En témoigne l’échec récent des comptes liés par téléphone sur Overwatch 2.
Face à ces comportements, les éditeurs de League of Legends et d'Assassin’s Creed ont décidé de collaborer pour concevoir une solution utilisant une intelligence artificielle. Actuellement, la modération des propos repose souvent sur un dictionnaire d’insultes facilement contournable et qui ne tient pas compte du contexte.
Le projet veut donc mettre au point une IA qui perçoit "de manière préventive" les comportements nuisibles dans les chats en ligne et à les faire disparaître au plus vite. Ce projet, baptisé Zero Harm in Comms, vise à mettre en commun leurs connaissances pour créer une base de données couvrant tous les types de jeux, de joueurs et de comportements, avec une IA apte à répondre à toutes les situations.
Ils définissent "Zero Harm in Comms" comme un projet transversal ambitieux qui devrait bénéficier à tous les joueurs. Dans leur communiqué ils déclarent :
"Dans toute l’industrie du jeu, beaucoup de personnes travaillent d’arrache-pied à rendre les jeux plus positifs, plus inclusifs et, en définitive, plus amusants pour tout le monde. Pour opérer des changements aussi conséquents dans ce défi complexe, il faudra une collaboration entre tous les acteurs de l’industrie. […]
Les jeux devenant chaque année plus populaires dans le monde, l’échelle de ce défi croît au même rythme. Voilà pourquoi Riot investit dans des systèmes à IA pour détecter automatiquement les comportements nocifs et faire éclore des communautés plus positives dans tous nos jeux. Vous pourrez en lire davantage sur l’approche de Riot en matière de dynamique des joueurs pour découvrir en détail les défis et les différentes stratégies à l’œuvre pour régler le problème.
La création de communautés en ligne plus inclusives est une mission à long terme qui ne sera jamais entièrement accomplie. Cela dit, en nous entraidant, nous pourrons apporter des améliorations réelles. Nous sommes déterminés à partager les leçons apprises lors de la première phase de cette initiative avec l’industrie tout entière dès l’année prochaine."