Des personnes confrontées à un choix moral ont accordé autant de confiance à un robot conversationnel comme ChatGPT qu’à un supposé conseiller humain selon une étude qui plaide pour une éducation de la population aux limites inhérentes à ce genre d’outils.
Un tramway, hors de contrôle, va écraser un groupe de cinq personnes sur la voie à moins d’utiliser un aiguillage déviant la machine vers une voie où se trouve une seule personne.
Dans ce test, "empiriquement, la plupart des gens n’hésitent pas à utiliser l’aiguillage", rappellent les auteurs de l’étude publiée dans Scientific Reports. A moins qu’avant de prendre la décision, un "conseiller moral" les en dissuade ou les y encourage.
Les auteurs ont testé des personnes pour voir si elles étaient influencées différemment selon que l’avis qui leur était donné était présenté comme émanant d’un "conseiller moral" supposé humain ou bien d’un "robot conversationnel d’intelligence artificielle, utilisant l’apprentissage profond pour parler comme un humain".