Tarmac

On a testé ChatGPT pour l’école : es-tu sûr de vouloir l’utiliser pour tes exams ?

Une étudiante réalise un travail pour son école et s’aide de l’intelligence artificielle ChatGPT.

© Yves An

"Salut ! Moi, c’est Alexandre. Je fais un stage en journalisme chez TARMAC. J’ai essayé l’intelligence artificielle ChatGPT et j’ai compris que ça peut vite partir en vrille si on l’utilise dans le cadre de l’enseignement. L’IA peut donner des infos faussées et partiales, et il est important que tu le saches".

Peut-être que tu ne l’as pas remarqué, mais ma présentation a été écrite par, Chat GPT, l’intelligence artificielle ! Elle a aussi répondu à une série de questions d’une évaluation pour le cours de déontologie journalistique de mon école, la Haute École de la Province de Liège. Je vous montre un exemple simple :

Faire un travail scolaire avec ChatGPT est-il éthique ?

ChatGPT : "Il est non éthique de faire un travail scolaire avec ChatGPT ou avec n’importe quel autre outil de synthèse de texte parce que cela va à l’encontre de l’objectif de l’éducation, qui est de permettre à l’étudiant d’apprendre et de comprendre les concepts qui lui sont enseignés. En utilisant un outil de synthèse de texte, l’étudiant n’apprend pas réellement et ne développe pas ses propres connaissances et compétences. De plus, cela peut être considéré comme de la tricherie, car l’étudiant n’est pas censé utiliser des outils externes pour effectuer son travail scolaire sans l’autorisation de l’enseignant."

Perso, j’aurais jamais donné une réponse pareille. Déjà, c’est trop neutre, c’est trop long et on sent qu’un élève lambda comme moi n’écrit pas comme ça.

ChatGPT : la nouvelle bible du Savoir ?

C’est sûr que l’outil vend du rêve ! Tu poses une question, tu as une réponse neutre et objective sur une thématique donnée. Tout laisse à croire que c’est ce que veulent les profs. Un élève de l’université de Liège, qui préfère garder l’anonymat, a essayé de s’en servir pour une présentation sur un travail de recherche lors de son Erasmus. À ce moment-là, on est en décembre, ChatGPT est encore assez nouveau. L’étudiant saisit l’occasion, mais tout ne s’est pas passé comme prévu…

"J’ai réalisé ma présentation sans trop vérifier les informations parce que j’étais bluffé par la qualité des réponses ! J’aurais dû plus me méfier car ce n’était pas ce que la prof attendait. Je ne pense pas qu’elle avait compris qu’une intelligence artificielle avait fait le travail, mais elle m’a dit que ce n’était pas assez précis et qu’il y avait plein d’incohérences", raconte l’étudiant de l’ULiège.

Du coup, la réponse est non ChatGPT n’est pas une Bible du savoir ! L’IA ne met aucune source à ma disposition quand je lui parle. Donc je n’ai aucune certitude quant à la véracité de ses informations, et j’ai encore moins l’occasion de pouvoir vérifier si ce que ChatGPT dit est vrai.

L’IA parle la langue de bois

Comme je te l’expliquais, les réponses que donne ChatGPT semblent parfaites. Pourquoi ? Car l’IA répond de manière assez pompeuse. Les informations sont présentées comme étant objectives et neutres, même si je lui demande de me donner un avis sur une thématique complexe.

Le problème ? Alain Hertay, mon prof à la Haute École de la province de Liège qui donne cours sur des thématiques du web (mais pas que) l’expliquera mieux que moi : "ChatGPT, c’est un agent conversationnel. Il est donc entraîné à produire du texte sur la base de sollicitations et ses données. Par conséquent, son "intelligence" est limitée : il n’invente pas, mais propose une synthèse de données puisées sur Internet comme Google pourrait le faire. Cette vidéo reste la meilleure présentation de ChatGPT pour moi."

Loading...

En plus de ça, l’avis que donne ChatGPT ne tient pas compte du contexte dans lequel nous sommes. Et "quand bien même on lui poserait une question précise. En mettant en évidence la période de temps et la zone géographique que l’on vise, il va quand même fournir une réponse sans contraster, nuancer les choses parce que simplement, il fournit une réponse très rapide en mobilisant des données de manière arbitraire", précise le Vice-Recteur de l’université de Liège Frédéric Schoenaers.

 

L’empreinte écologique n’est pas neutre

ChatGPT, c’est une intelligence artificielle créée par l’entreprise OpenAI. Ce logiciel a avalé un nombre incalculable de données. Par exemple, ChatGPT a "étudié" l’entièreté des pages de Wikipédia. Et ça, ça ne représente que 0,6% de ses données.

L’IA va donc puiser dans un puits de données quasiment sans fond. Frédéric Schoenaers, Vice-Recteur de l’université de Liège explique : "La production de réponses se repose sur la mobilisation de calculateurs gigantesques. ChatGPT va nous fournir une réponse unique dans un temps record ce qui consomme énormément d’énergie. Donc l’empreinte écologique n’est pas neutre."

Un outil qu’il faut apprendre à manier

Malgré tout, l’outil peut être vachement utile si on l’utilise de manière intelligente. "C’est un outil génial, je pense qu’il faut savoir l’utiliser ! Ça peut être utile pour se lancer dans un travail de recherche ou même pour se donner des idées, je pense que ça va être vraiment utile dans le futur. Mais voilà, c’est sûr qu’il faut savoir s’en servir et toujours rester critique par rapport à ce qu’il dit", raconte l’étudiant de l’ULiège.

Aujourd’hui, c’est facile de déceler l’utilisation d’une intelligence artificielle grâce à certains logiciels comme gltr.io, mais il reste compliqué de détecter avec certitude une utilisation frauduleuse de ChatGPT. Toi et moi, on peut simplement paraphraser les réponses et détourner les outils de contrôles.

ChatGPT aura probablement le rôle d’un assistant virtuel

Le Vice-Recteur de l’ULiège prévoit alors deux alternatives pour l’enseignement : "Le premier, c’est effectivement contourner l’outil en sensibilisant les encadrants au fait que certaines tâches peuvent être résolues très facilement grâce à ChatGPT. Donc, il vaut mieux développer d’autres types de questionnements et des travaux en présentiel."

"L’autre possibilité, c’est de carrément intégrer ChatGPT à la fois dans les enseignements et dans les évaluations. Par exemple : partir des résultats fournis par ChatGPT qu’on aurait sciemment demandé et les mettre à l’épreuve par les étudiants et leurs esprits critiques. Finalement on tirerait parti de ce que ChatGPT peut raconter à propos de quelque chose et ce serait aux étudiants à compléter le discours incomplet de l’IA", poursuit Frédéric Schoenaers.

Déclic - Le Tournant

Pour voir ce contenu, connectez-vous gratuitement

Cette alternative permet de ne pas diaboliser ChatGPT et son utilisation dans l’enseignement. Il y a toujours eu une crainte à chaque révolution technologique comme le rappelle mon prof Alain Hertay : "On a voulu interdire la calculette dans les écoles, car elle allait nuire au calcul mental, puis empêcher Wikipédia, car il pouvait saper l’autorité de l’enseignant ou restreindre Google qui pouvait entamer nos capacités mémorielles. C’est l’usage sociétal qui impose les outils dans le cadre scolaire. Bard, le ChatGPT de Google, sera bientôt disponible gratuitement ! ChatGPT va aussi être intégré dans Teams et Snapchat nous proposera sa propre version lorsque nous utiliserons l’appli. D’autres vont suivre évidemment. ChatGPT aura probablement le rôle d’un assistant virtuel."

Une nouvelle version de l’intelligence artificielle est disponible depuis ce 16 mars pour ceux qui sont abonnés à ChatGPT Plus. ChatGPT 4 promet d’être plus sûr selon le PDG d’OpenAI, Sam Altman : "il est plus créatif que les modèles précédents, il hallucine nettement moins et il est moins biaisé". Reste encore à voir si ce qu’il assure se révèle vrai.

Loading...

Inscrivez-vous aux newsletters de la RTBF

Info, sport, émissions, cinéma...Découvrez l'offre complète des newsletters de nos thématiques et restez informés de nos contenus

Articles recommandés pour vous