Le Président des Etats-Unis demande aux fournisseurs d’IA de communiquer sur leurs risques

Joe Biden intervient sur l'encadrement de l'IA, 30 octobre

Joe Biden a publié un décret détaillé sur l’encadrement de l’intelligence artificielle, le 30 octobre dont le but est que les Etats-Unis saisissent les promesses de l’IA et gèrent les risques associés. Le Président demande au passage de favoriser l’immigration d’experts en IA. Les besoins du gouvernement en main d’œuvre et ses actions sont centralisés sur le site AI.gov.

Afin de piloter l’exécution du décret dans les délais et de coordonner les activités des agences du gouvernement fédéral, il est créé, au sein du bureau exécutif du Président, le « Conseil de l’intelligence artificielle de la Maison Blanche ». Ce Conseil est présidé par l’assistant du Président et chef de cabinet adjoint pour les régulations.

Protéger la vie privée des Américains et promouvoir l’innovation


Le décrit annonce viser une IA sûre, sécurisée et digne de confiance. Côté gestion des risques de l’IA, le décret déclare vouloir protéger la vie privée des Américains, faire progresser l’équité et les droits civils, défendre les consommateurs et les travailleurs, promouvoir l’innovation et la concurrence et faire progresser le leadership américain dans le monde.




Les développeurs des systèmes d’IA les plus puissants devront partager les résultats de tests de sécurité avec le gouvernement américain

Côté maîtrise, les développeurs des systèmes d’IA les plus puissants devront partager les résultats de tests de sécurité et d’autres informations critiques avec le gouvernement américain. Les entreprises développant tout modèle d’IA de base qui présente un risque sérieux pour la sécurité nationale, la sécurité économique nationale ou la santé et la sécurité publiques informeront le gouvernement fédéral lors de la formation du modèle et doivent partager les résultats de tous les tests de sécurité. Ces mesures doivent garantir que les systèmes d’IA sont sûrs, sécurisés et dignes de confiance avant que les entreprises ne les rendent publics. 

Le décret demande de développer des normes, des outils et des tests pour garantir que les systèmes d’IA sont sûrs, sécurisés et dignes de confiance.  L’Institut national des normes et de la technologie (National Institute of Standards and Technology) est chargé d’établir des normes rigoureuses pour des tests approfondis afin de garantir la sécurité avant la diffusion publique. 

Création d’un Conseil de sûreté et de sécurité de l’IA

Le ministère de la Sécurité intérieure (Homeland Security) appliquera ces normes aux secteurs d’infrastructures critiques et créera le « Conseil de sûreté et de sécurité de l’IA » (AI Safety and Security Board). Les ministères de l’Énergie et de la Sécurité intérieure s’attaqueront également aux menaces que représentent les systèmes d’IA pour les infrastructures critiques, ainsi qu’aux risques chimiques, biologiques, radiologiques, nucléaires et de cyber-sécurité. 

« Ce sont les mesures les plus importantes jamais prises par un gouvernement pour faire progresser le domaine de la sécurité de l’IA« 

« Ensemble, ce sont les mesures les plus importantes jamais prises par un gouvernement pour faire progresser le domaine de la sécurité de l’IA » souligne le décret. Le décret vise d’autre part à protéger contre les risques liés à l’utilisation de l’IA pour concevoir des matières biologiques dangereuses. Pour cela, il demande de développer de nouvelles normes strictes pour le criblage par synthèse biologique. Les agences qui financent des projets de sciences de la vie établiront ces normes comme condition du financement fédéral. Cela doit créer de puissantes incitations pour garantir un contrôle approprié et gérer les risques potentiellement aggravés par l’IA.

Il s’agit également de protéger les Américains contre la fraude et la tromperie basées sur l’IA en établissant des normes et des bonnes pratiques pour détecter le contenu généré par l’IA et authentifier le contenu officiel. Le ministère du Commerce élaborera des directives sur l’authentification du contenu et le filigrane à y appliquer afin d’étiqueter clairement le contenu généré par l’IA. Les agences fédérales utiliseront ces outils pour permettre aux Américains de savoir facilement que les communications qu’ils reçoivent de leur gouvernement sont authentiques et donneront l’exemple au secteur privé et aux gouvernements du monde entier.

L’IA à mobiliser pour corriger les vulnérabilités des logiciels

Le décret demande d’établir un programme de cyber-sécurité avancé pour développer des outils d’IA permettant de rechercher et de corriger les vulnérabilités des logiciels critiques,  en s’appuyant sur l’IA Cyber ​​Challenge en cours de l’administration Biden-Harris. Ensemble, ces efforts exploiteront les cyber-capacités de l’IA afin de sécuriser les logiciels et les réseaux.

Le décret demande l’élaboration d’un mémorandum sur la sécurité nationale qui oriente les actions futures en matière d’IA et de sécurité,  qui sera élaboré par le Conseil de sécurité nationale et le chef d’état-major de la Maison Blanche. Ce document s’assurera que l’armée et la communauté du renseignement des États-Unis utilisent l’IA de manière sûre, éthique et efficace dans leurs missions, et orientera les actions visant à contrer l’utilisation militaire de l’IA par les adversaires.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *