Un jeune Belge s’est récemment ôté la vie après avoir été encouragé par le Chatbot Eliza. Si l’intelligence artificielle est réputée pour aider ses utilisateurs dans la vie de tous les jours ou dans leur vie professionnelle, elle peut aussi parfois conduire à de véritables drames.
Mais qui est responsable lorsque la réponse de l’intelligence artificielle tourne mal ?
Selon le professeur et chercheur de l'UNamur Yves Poullet, le droit en la matière est inexistant. "Le droit classique est absent", affirme-t-il. "Quand on cherche à démontrer la responsabilité de quelqu’un, on doit démontrer sa faute, le lien de causalité entre sa faute et le dommage. Tout cela est difficile puisqu’il est difficile d’affirmer que c’est à cause de la conversation que la personne s’est suicidée."
Pour remédier à la situation, reprend-il, "il y a un projet de directive européen de la fin de l’année dernière qui dit qu’il y a un renversement de la charge de la preuve de toute façon. Et ce renversement ne peut être évité que dans la mesure où l’utilisateur qui est responsable conjoint n’ait pas une démonstration qu’il ait suivi des obligations, en particulier en matière d’évaluation et de logging."