ChatGPT, cet outil qui génère du texte en réponse à des demandes des utilisateurs, a déjà détourné de sa fonctionnalité principale. Comme l’affirme Check Point Research, l’intelligence artificielle est très prisée des pirates et des arnaqueurs. Mais serait-elle capable de coder un logiciel malveillant ?
Selon Cameron Camp, chercheur spécialisé en sécurité chez ESET, la réponse est non. Du moins pour l’instant. Comme l’explique le spécialiste, ChatGPT est “assez bon pour suggérer du code, générer des exemples de code et d’extraits, mais aussi pour le débogage et l’optimisation du code”, mais les maliciels (soit des virus, chevaux de Troie ou des vers qui viennent parasiter une machine) entièrement conçus par l’IA ne sont pas encore d’actualité.
Camp reconnaît néanmoins que ChatGPT est très impressionnant, “car il s’agit d’un grand modèle de langage, et ses capacités surprennent même les créateurs de ce genre de modèles”, mais l’outil fait encore beaucoup d’erreurs. “ChatGPT est très superficiel, fait des erreurs, crée des réponses plus proches d’hallucinations (c’est-à-dire des réponses fabriquées) et n’est pas vraiment fiable pour tout ce qui est sérieux. Mais il semble gagner du terrain rapidement, à en juger par la nuée de technophiles qui s’en approchent.”