RTBFPasser au contenu
Rechercher

Monde Europe

Intelligence artificielle : la Commission veut interdire certaines technologies dangereuses pour la sécurité

Intelligence artificielle : la Commission veut interdire certaines technologies dangereuses pour la sécurité. Photo d'illustration
21 avr. 2021 à 13:46 - mise à jour 21 avr. 2021 à 13:46Temps de lecture2 min
Par Belga

La Commission européenne a présenté mercredi ses propositions de révision des règles sur l’intelligence artificielle (IA), assortie d’interdictions pures et simples de certaines technologies et de régulations plus ou moins strictes pour d’autres. Elle envisage de passer les technologies au crible selon une évaluation pyramidale du risque. Seraient interdits les systèmes IA présentant un "risque inacceptable", c’est-à-dire ceux considérés comme une menace évidente pour la sécurité, les moyens de subsistance et les droits des personnes.

Préserver le libre arbitre des humains

Il s’agit notamment des systèmes ou applications d’IA qui manipulent le comportement humain pour priver les utilisateurs de leur libre arbitre (par exemple, des jouets utilisant une assistance vocale incitant des mineurs à avoir un comportement dangereux) ou encore des systèmes qui permettent la notation sociale par les États, comme c’est déjà utilisé en Chine.

Viendraient ensuite des systèmes à risque élevé qui feraient l’objet d’obligations strictes : IA dans les infrastructures de transport, dans l’éducation (notation d’épreuve d’examen par exemple), dans la sécurité des produits (chirurgie assistée par robot), tri des CV par logiciel dans les procédures de recrutement, évaluation du risque du crédit bancaire, vérification de la fiabilité des éléments de preuve pénale, etc. À noter la reconnaissance biométrique en temps réel par les autorités publiques ferait partie de cette catégorie, ce qui fait craindre à certains une surveillance de masse.


►►► A lire aussi : AI, que nous réserve l’avenir ?


Une amende jusqu’à 6% du chiffre d’affaires en cas d’infraction

Le risque "limité", soumis à des obligations spécifiques de transparence, toucherait par exemple l’information requise sur les interactions avec les chatbots (programme qui converse avec une personne). Enfin le risque minime concernerait la grande majorité des systèmes et ne serait pas soumis à de nouvelles règles. On parle ici par exemple de jeux vidéo, filtres antispam reposant sur l’intelligence artificielle, etc.

"L’un des objectifs est de fournir à chaque utilisateur une connaissance claire quand il interagit avec une machine", a exposé la vice-présidente de la Commission, Margrethe Vestager. Si une firme ne respecte pas la future législation européenne, qui doit encore entamer son parcours devant le Parlement et le Conseil (États membres), elle risque une amende pouvant aller jusqu’à 6% de son chiffre d’affaires annuel, selon la Danoise, qui est en charge de la Concurrence.

Sur le même sujet: JT 20/03/2021

Intelligence Artificielle : Tri des métaux

Pour voir ce contenu, connectez-vous gratuitement

Sur le même sujet

"Google sait mieux que vous quand vous allez mourir": la santé est un marché très rentable pour les GAFAM

Intelligence artificielle, biotechnologies, data… Le monde de demain sera technologique ou ne sera pas

Articles recommandés pour vous