L’encadrement de l’intelligence artificielle en Europe se met progressivement en place. A l’occasion d’un avis adopté le 18 juin, et rendu public le 8 juillet, la Cnil et ses homologues européens demandent comme première étape que la gouvernance du « Comité européen de l’intelligence artificielle » (CEIA) soit précisée à la suite de la proposition de règlement sur l’IA de part de la Commission européenne.
Des pouvoirs renforcés demandés pour le comité européen de l’intelligence artificielle
La Cnil demande en outre que le CEIA ait une indépendance garantie et que ses pouvoirs soient renforcés pour exercer un véritable contrôle, en particulier lors de la mise en œuvre de systèmes d’intelligence artificielle à l’échelle européenne. Par ailleurs, comme ses homologues, la Cnil considère qu’elle devrait être désignée comme autorité de contrôle national de l’intelligence artificielle. Elle estime qu’une telle désignation faciliterait la bonne application du futur règlement sur l’IA et la constitution d’un écosystème européen de l’intelligence artificielle favorable à l’innovation.
Dans le même temps, la Cnil et ses homologues tracent leurs lignes rouges dans l’usage de l’IA. Elles demandent que la proposition de règlement européen soutienne des systèmes d’IA conformes aux valeurs et aux principes européens. Dans le détail, la Cnil estime que l’identification biométrique à distance des personnes dans les espaces publics pose des risques. Dès lors, elle demande que soient retirées les exceptions d’usage à l’interdiction générale. Cela concerne la reconnaissance des visages, la reconnaissance de la démarche, des empreintes digitales, de la voix, etc.
La compréhension des émotions à bannir sauf pour des objectifs de santé
La Cnil soutient également l’interdiction des systèmes biométriques utilisés aux fins de classer les individus dans des groupes basés sur l’ethnicité supposée, le sexe, l’orientation politique ou sexuelle, ou d’autres motifs pour lesquels la discrimination est interdite en vertu de l’article 21 de la Charte des droits fondamentaux de l’Union européenne.
L’utilisation de systèmes d’IA pour déduire les émotions d’une personne physique est aussi considérée comme hautement indésirable et devrait également être soumise à une interdiction de principe sauf dans cas très spécifiques, tels que des objectifs de santé selon la Cnil. Enfin, les systèmes utilisés pour la notation sociale « social scoring » doivent être systématiquement interdits termine la Cnil.
Top lectures en ce moment
-
Stellantis adopte les agents IA, arcbouté sur une plateforme d’IA bâtie avec Dat...
-
La CDP (Customer Data Platform), un projet clé de la transformation Data d’Axa F...
-
Doctolib lance un assistant vocal de gestion des appels des patients
L'IA clé de nos besoins vitaux dans l'eau, l'électricité et le gaz
Marchés de l’eau : l’IA générative arrive dans les réponses aux appels d’offres des collectivités
Saur, spécialiste de la distribution d’eau potable, fait évoluer son processus de réponse aux appels d’offres des collectivités et des industriels en y injectant de l’IA géné…
Stockage de l’électricité : l’IA générative outil d’accélération clé chez Engie
Le stockage de l’électricité est un enjeu stratégique. Engie s’y attelle et mobilise pour cela l’IA générative de type RAG, c'est-à-dire basée sur le traçage des documents source. …
Nouvelle donne dans le gaz naturel : GRDF s’adapte en utilisant l’IA
GRDF, leader de la distribution du gaz naturel en France, affine sa stratégie d’IA. Il s’appuie sur des serveurs internes pour la confidentialité des données de ses clients. GRDF c…














Et vous, qu’en pensez-vous ?
Une idée, une réaction, une question ? Laissez-nous un mot ci-dessous.
Je réagis à cet article