Médias

Téton, ventre de grossesse, exercice physique… : le corps des femmes éternellement sexualisé, aussi par les algorithmes de l’intelligence artificielle

Une photo de femme en plein exercice physique a plus de probabilité d’être censurée qu’une photo similaire mettant en scène un homme.

© RTBF/Getty Image

Un téton féminin apparent ou suggéré, un ventre de femme enceinte exposé, ou encore une femme en plein exercice physique. Autant d’éléments ou de mises en scène qui font qu’une photo postée sur Internet pourrait se voir censurée ou supprimée, car jugés sexuellement suggestifs par les algorithmes de l’intelligence artificielle. C’est ce qui ressort d’une vaste enquête menée par le quotidien britannique The Guardian.

Les algorithmes - suites d’opérations alimentées par des données qui produisent un résultat - sont donc, eux aussi, empreints de stéréotypes sexistes. Qu’explique donc ce sexisme ordinaire perpétué dans l’intelligence artificielle ? Comment se fait-il que ces outils puissent genrer les photos ? Doit-on craindre l’évolution de ce processus, qui gagne toujours plus de terrain auprès des jeunes, pourtant en pleine construction sociale ?

Une centaine d’images analysée

Censés protéger les utilisateurs des contenus violents ou pornographiques, ces outils d’intelligence artificielle (IA) développés par les GAFAM (Google, Apple, Facebook, Amazon et Microsoft) sont à la base des décisions de ce qui sera amplifié en visibilité ou tout bonnement censuré. Ces entreprises affirment ainsi que leurs algorithmes sont capables de détecter le côté grivois ou le caractère sexuellement suggestif d’une image.

Deux journalistes du Guardian ont dès lors décidé d’utiliser ces outils afin d’analyser leur fonctionnement à travers des centaines de photos d’hommes et de femmes en sous-vêtements, en séance de musculation, partiellement nus. À l’issue de l’enquête, ils sont parvenus à prouver que les images de femmes dans des situations quotidiennes sont considérées par ces outils comme plus "osées" ou sexuellement suggestives que celles des hommes dans les mêmes positions.

"Même les images médicales sont concernées par le problème. Les algorithmes d’IA ont été testés sur des images publiées par l’Institut national du cancer des États-Unis, qui montrent comment effectuer un examen clinique des seins. L’IA de Google a attribué à cette photo le score le plus élevé en matière de grivoiserie, celle de Microsoft a estimé à 82% que l’image était 'de nature explicitement sexuelle', et Amazon l’a classée comme représentant une 'nudité explicite'", rapportent les journalistes.

Les ventres des femmes enceintes sont eux aussi perçus comme problématiques pour ces outils. "L’algorithme de Google a classé la photo comme 'très susceptible de contenir du contenu osé'. L’algorithme de Microsoft a estimé à 90% que l’image était 'de nature sexuellement suggestive'", peut-on lire dans l’enquête.

Autre exemple encore, une photo du journaliste Gianluca Mauro, co-auteur de l’enquête, en pantalon et torse nu a obtenu un score inférieur à 22% d’allusion sexuelle. Lorsqu’il porte un soutien-gorge, le score est passé à 97%. L’algorithme a ensuite donné le score de 99% lorsque le soutien-gorge est tenu à côté du journaliste.

Et si une entreprise de réseaux sociaux interrogée par le Guardian assure qu’elle n’a pas conçu ce système pour créer ou renforcer les préjugés, c’est à l’évidence bien l’inverse qui s’opère.

"Couvrez ce sein que je ne saurais voir"

Car ce qui ressort de cette enquête, s’il fallait encore le prouver, c’est l’objectivation sexuelle du corps des femmes profondément ancrée dans la société. Société au singulier et non au pluriel, puisque comme le souligne Nathalie Grandjean, docteure en philosophie à l’UNamur, spécialisée sur le corps et la technologie, les algorithmes des GAFAM sont américains. "Il y a une certaine culture américaine de la pudeur et de la protection de la jeunesse qui n’est pas nécessairement une mauvaise chose, mais qui organise une censure et quasi une censure morale fort inquiétante envers le corps des femmes."

"Couvrez ce sein que je ne saurais voir", disait Molière. Si le corps des femmes se voit ordinairement censuré, c’est parce qu’il peut "exciter le désir des hommes", rappelle Nathalie Grandjean. Et ce désir considéré comme instinctif, naturel, ne peut être régulé autrement que par l’extérieur, par la censure auprès des femmes.

Et Nathalie Grandjean de souligner le paradoxe du corps sexué des femmes : alors qu’il est "offert au regard" à travers le cinéma et la publicité, où, nu, il ne provoque aucune censure, il est perçu comme problématique lorsqu’il est mis en scène par les femmes elles-mêmes.

L’évaluation humaine à la source des biais

"Dans l’imaginaire collectif, une décision prise par un algorithme serait plus objective qu’une décision prise par un être humain", précise Arnaud Claes, chercheur à l’UCLouvain en information et communication, dont la thèse porte sur l’algorithme de service public et l’autonomie critique. Pourtant, force est de constater que ces outils sont emprunts de biais, de genre notamment.

Pour faire fonctionner un algorithme, il faut le nourrir des critères prédéfinis. Dans le cas de l’identification du "degré de grivoiserie", autrement dit le caractère sexuellement suggestif, des photos publiées en ligne, il a fallu lui donner "une série d’éléments qui auront été prélabellisés. On va lui dire : 'ça, c’est un exemple de contenu problématique'", explique Arnaud Claes.

Si le fait de développer un algorithme capable d’identifier une table ou un chat sur une photo ne pose en soi pas de problème dans la mesure où "tout le monde peut se mettre d’accord sur ce que sont un chat et une table et que donc la base de données et la labellisation seront fiables", il n’en va pas de même pour ce qui relève de la construction sociale. Comme le genre, ou encore ce qui pourrait être considéré comme grivois, osé.

Ce sont des bases de données qui sont labellisées par une certaine population, en l’occurrence ici par des hommes blancs, d’une certaine couche sociale.

"Quand on est sur ce genre de représentations qui sont très variables d’une culture à l’autre, d’un milieu social à un autre, on se retrouve avec des bases de données qui sont labellisées généralement par une certaine population, en l’occurrence ici par des hommes blancs, d’une certaine couche sociale", détaille Arnaud Claes.

Seulement 22% de femmes dans les métiers STIM

Pour cause, les femmes sont encore sous-représentées dans les métiers STIM (science, technologie, ingénierie et mathématiques). D’après l’UNESCO, elles ne représenteraient en effet que 22% des professionnels de l’IA dans le monde. En Belgique, les postes de managers, technologies de l’information et des communications n’étaient assurés en 2021 que par 15% de femmes, selon le top 100 des professions de Statbel.

"Les femmes peinent à s’y intéresser assez bizarrement parce que les femmes font plein de sciences par ailleurs. Toutes les facultés médicales sont remplies de femmes. Elles font des maths et des sciences qui requièrent probablement les mêmes compétences intellectuelles. Donc c’est vraiment un problème d’attractivité de l’informatique pour les jeunes filles et tout un imaginaire lié à la machine", commente Nathalie Grandjean.

Si le fait de féminiser davantage le milieu profitera évidemment à la fabrication d’algorithmes, cela ne résoudra pas tout pour Nathalie Grandjean. "Le fait d’être une femme ne suffira pas à endiguer le patriarcat et ses dégâts collatéraux. Il faut aussi une éducation qui essaie d’aller contre ces rapports systémiques et asymétriques que sont les rapports de genre. […] Être une femme, ça ne fait pas de nous naturellement des êtres conscients des dominations qui nous incombent."

Et Arnaud Claes d’abonder en ce sens. "On pourrait supposer que si des femmes faisaient partie des équipes de labellisation, on aurait une autre identification et beaucoup d’autres schémas. Mais ça ne résout pas tous les problèmes parce qu’en fonction du groupe qui va faire la labellisation, d’autres biais pourraient apparaître", ponctue le chercheur.

En atteste l’incident survenu il y a quelques années sur Facebook. Un algorithme de recommandation du réseau social avait confondu des personnes noires avec des "primates". La seule manière de rendre les algorithmes plus inclusifs est donc de diversifier les profils qui les créent.

De l’éducation aux médias à l’éducation tout court

À l’heure où l’intelligence artificielle prend de plus en plus d’ampleur notamment auprès des jeunes et sur les bancs de l’école, quel impact son utilisation peut-elle avoir ? C’est précisément là que réside, selon Arnaud Claes, tout l’intérêt de faire prendre conscience aux jeunes générations, et pas que d’ailleurs, du fonctionnement de ces outils et de leur façon d’agir sur la représentation du monde.

"Parce qu’ils vont privilégier certaines représentations plutôt que d’autres, qui sont des constructions sociales, […] ils vont influencer les attitudes et les comportements moraux de toute une série d’individus", relève le chercheur. Cette expansion de l’intelligence artificielle devrait donc s’accompagner d’une réelle éducation aux médias.

L’intelligence artificielle n’est jamais que le reflet de ce qu’on est.

Et d’éducation tout court, étant donné que les problèmes soulevés par ces technologies les précédaient. Le spécialiste en algorithme de service public plaide donc pour "la poursuite d’une éducation sociale, mêlée à un peu d’éducation technologique, certains fondements dans les grandes lignes en tout cas pour voir comment tout ça s’intègre dans un écosystème médiatique. Tout en essayant de sortir de la dichotomie technophilie-technophobie pour voir comment ces outils peuvent être utilisés de façon critique et consciente". Sans toutefois tomber dans une certaine forme de naïveté. Car ces outils restent avant tout ceux d’entreprises "qui poursuivent des objectifs commerciaux".

Pour Nathalie Grandjean, ce ne sont donc pas les outils d’intelligence artificielle qu’il faut blâmer. "Bien entendu, dans une société telle que la nôtre où presque tout passe par les médias, il faut éduquer aux médias, mais il faut surtout éduquer dans le but de sortir de cette culture patriarcale et cette culture du viol. Ça me semble indispensable de bien comprendre que l’intelligence artificielle, ce n’est jamais que le reflet de ce qu’on est", conclut la maîtresse de conférences à l’Université de Namur.

Inscrivez-vous aux newsletters de la RTBF

Info, sport, émissions, cinéma...Découvrez l'offre complète des newsletters de nos thématiques et restez informés de nos contenus

Articles recommandés pour vous