RTBFPasser au contenu
Rechercher

Sciences et Techno

"Cette personne n’existe pas" ou lorsque l'intelligence artificielle crée mathématiquement des visages

01 avr. 2022 à 04:00 - mise à jour 01 avr. 2022 à 14:51Temps de lecture5 min
Par Ibrahim Molough

Ce visage n’est pas réel. Vous n’y croyez pas ? Et pourtant, ce visage produit par ce site internet n’existe pas. En réalité, il a été généré, pixel par pixel, par une intelligence artificielle (IA).

Ce visage a été généré, pixel par pixel, par une intelligence artificielle (IA).
Ce visage a été généré, pixel par pixel, par une intelligence artificielle (IA). © Tous droits réservés

En plus des faux visages, plusieurs versions de ce site existent. Par exemple, on peut y trouver des générateurs d’images de chats, d’images satellites ou encore de cartes. Chacune, produite par une IA.

Derrière ces sites aux résultats assez amusants, voire intrigants, se cache un système de machine learning, que l’on peut traduire par : apprentissage automatique. Qu’est-ce que c’est et quelles sont les capacités de ce système ?

Comment ça fonctionne ?

Selon Pierre Dupont, professeur à l’Ecole polytechnique de Louvain, spécialiste de l’intelligence artificielle, "le machine learning, c’est une collection de programmes qui permettent, à partir de données, de construire un modèle".

Les données utilisées pour créer un modèle peuvent être des images, des sons, du texte, etc. Le modèle, quant à lui, est une abstraction mathématique des données, qui sert à réaliser des prédictions.

En résumé, l’objectif est de donner aux ordinateurs la capacité d'"apprendre" à partir de données, c’est-à-dire d’améliorer leurs performances à résoudre des tâches sans être explicitement programmés pour chacune d’entre elles.

Pour illustrer ce système, Pierre Dupont donne un exemple concret dans son domaine de recherche, le médical. Le spécialiste explique les étapes à suivre, afin de créer un modèle permettant de prédire la réaction d’un patient à un nouveau traitement.

"Pour commencer, il faut réunir une collection de patients qu’on suit dans le temps et sur lesquels on prend des mesures. Il est indispensable de réaliser ces mesures avant le traitement, que ce soit sur leurs états de santé ou leurs historiques médicaux. Après cela, il est possible de débuter le traitement. Evidemment, nous surveillons les résultats et les réactions provoqués par ce nouveau traitement. La réaction des patients au traitement et leurs données médicales serviront de données. Celles-ci vont nourrir l’algorithme et permettre la création d’un modèle", explique Pierre Dupont.

Après la phase d’apprentissage, où la réponse au traitement est connue, il est possible de passer à la phase de prédiction, où le logiciel prédit par ses propres moyens ce qui va arriver au patient.

"Cet algorithme va finir par découvrir des régularités entre les différents patients. Une fois que le modèle existe, il sera possible de passer à la deuxième phase. Nous allons donner à l’algorithme des données de nouveaux patients, et on va le laisser déterminer par lui-même les résultats. Grâce à l’expérience emmagasinée, il pourra déterminer de manière très précise les réactions des patients", précise l’expert.

Néanmoins, cette technique nécessite énormément de données. Plus elles sont nombreuses, meilleures seront les prédictions.

Les GAN, une facette du machine learning

Dans le cas du site de faux visages, ce sont les réseaux antagonistes génératifs (GAN) qui sont utilisés. Ce système fait partie du machine learning, mais a la particularité de posséder deux programmes: le discriminateur et le générateur.

Le discriminateur classifie les images entre deux classes, c’est-à-dire, entre deux catégories. Dans le cas du site cité précédemment, le discriminateur reçoit une vraie image ou une image synthétisée. Le programme devra faire un choix, déterminer si l’image qui lui est présentée est réelle ou fausse. "Finalement, c’est un problème presque plus simple que la catégorisation d’images car il n’y a que deux possibilités", ajoute l’expert.

Le deuxième programme est le générateur d’image, il reçoit en entrée un vecteur aléatoire. Dans ce cas, sont des nombres tirés au hasard pour créer une image. En effet, une image n’est qu’un nombre de pixels ordonnés d’une certaine manière. Ainsi, il génère une image synthétisée, pixel par pixel.

"Ces deux machines jouent l’une contre l’autre. Dans les premiers temps, le générateur commence son apprentissage. Il produit alors des images très peu ressemblantes à un visage. Par conséquent, le discriminateur n’a aucun mal à déterminer le vrai du faux. Cependant, en changeant ses paramètres, le générateur va s’améliorer et produire des images de plus en plus convaincantes. Le discriminateur va lui aussi continuer à s’améliorer et va forcer le générateur dans ses retranchements. Ce dernier devra produire des visages de plus en plus fins et réalistes. Alors, une boucle d’amélioration est lancée. Pour le générateur, le but est de produire des images de plus en plus réalistes, et pour le discriminateur, c’est de continuer à identifier les fausses", explique Pierre Dupont.

À partir du moment où les images deviennent assez convaincantes, il est possible d’utiliser uniquement le générateur, car ce dernier est devenu suffisamment fiable.

Les utilisations du machine learning

Pour Pierre Dupont, il n’y a pratiquement plus de limites à l’application de ce système. Le machine learning est déjà utilisé dans de nombreux programmes.

Par exemple, dans les logiciels de traductions automatiques. Derrière ceux-ci, il y a un problème d’apprentissage, qui consiste à apprendre et à produire une phrase traduite à partir d’une phrase d’origine.

"C’est un problème qu’on peut modéliser. On a une entrée et une sortie. L’entrée, c’est la phrase d’origine, la sortie, c’est la phrase dans la langue traduite. On peut avoir un certain nombre d’exemples dont on connaît les résultats et sur base de ce modèle, le système peut traduire une entrée jamais encore rencontrée grâce à l’apprentissage précédent", indique Pierre Dupont.

De plus, Il ne faut pas oublier la voiture autonome. Pour faire mouvoir des véhicules sans intervention humaine, des données du passé, c’est-à-dire d’un conducteur dont on a enregistré les données de conduite, sont exploitées par un algorithme. Là aussi, à force d’apprentissage, le véhicule est capable de prendre ses propres décisions en fonction de son environnement.

Dans certains domaines, le machine learning est tellement efficace qu’il finit par remplacer l’homme. "En 2017, le champion du jeu du go a été battu par une machine. Depuis, elles sont devenues tellement performantes qu’il n’y a plus de compétitions entre humain et machine. Faire jouer une machine contre un humain reviendrait à faire jouer un débutant contre un champion", explique Pierre Dupont.

Et l’éthique dans tout ça ?

Le risque éthique le plus connu est évidemment le deepfake, un trucage utilisant l’IA. Selon Pierre Dupont, c’est l’un des risques éthiques majeurs : "Récemment, il y avait eu un deepfake de Zelensky et de Poutine. Avec cette technologie, on peut faire dire à des gens des choses qu’ils n’ont jamais dites. Même les mouvements des lèvres ressemblent magistralement à ce qui est prononcé".

"Dans le cas de la voiture autonome, si ça flanche, à qui la faute ? Est-ce la faute du programmeur ? Celui qui a collecté les données ? La société qui commercialise le logiciel ? Le constructeur de la voiture ? Ce n’est pas encore clair…", rajoute Pierre Dupont sur l’éthique du machine learning.

Pour finir, toutes ces techniques sont alimentées par des quantités gigantesques de données. Il est dès lors, indispensable de se questionner sur le devenir de celles-ci.

Sur le même sujet

Les images de la fin de l’humanité imaginée par une IA

Tipik

Ce faux discours de Vladimir Poutine annonçant "la paix" avec l’Ukraine est un deepfake

Faky

Articles recommandés pour vous