L’Oréal, Malakoff Humanis et Orange lancent un label d’intelligence artificielle responsable

Lancement du label Positive AI par Laetitia Orsini Sharps

Le leader mondial des cosmétiques L’Oréal, l’assureur Malakoff Humanis, l’opérateur télécoms Orange France et la société de conseil et de services aux entreprises BCG (Boston Consulting Group) GAMMA annoncent le lancement du label Positive AI afin de rendre plus concrète et accessible l’éthique dans l’intelligence artificielle pour toutes les entreprises à l’heure où les textes européens tentent d’encadrer la création d’intelligence artificielle.

Une association dirigée par une vice présidente d’Orange France

Positive AI a le statut d’association de loi 1901 et a été créée en juin 2022. Elle est présidée par Laetitia Orsini Sharps, qui est vice présidente exécutive d’Orange France depuis octobre 2022, en charge de l’activité grand public et qui rapporte directement à la DG d’Orange France. Elle était auparavant directrice marketing France pour le grand public.

Il est trop difficile pour les entreprises de rendre opérationnelles les recommandations sur l’intelligence artificielle responsable

Les entreprises ont un rôle majeur à jouer pour que l’intelligence artificielle associe le potentiel d’innovation et le respect des droits humains, considèrent les 4 sociétés à l’initiative de Positive AI. Ces 4 sociétés déclarent qu’il est difficile pour les entreprises de rendre opérationnelles les recommandations sur l’intelligence artificielle responsable. Dès lors, elles tentent d’apporter leur pierre à l’édifice en développant un référentiel intégrant les principes clés de l’IA Responsable définis par la Commission Européenne.

Ce référentiel plus concret met l’accent sur trois dimensions prioritaires. Tout d’abord, la justice et l’équité  afin de prévenir les biais de discrimination et d’iniquité de traitement pouvant exister aussi bien dans les données que dans les algorithmes. Deuxième point, il concerne la transparence et l’explicabilité afin de faire en sorte que les données et les algorithmes soient accessibles, compréhensibles, explicables ou a minima interprétables et reproductibles.

Intervention de Gaëlle Le Vu, directrice communication d’Orange France

L’intelligence artificielle et l’humain doivent collaborer

Enfin, concernant la préservation de l’intervention humaine, il s’agit de s’assurer de la capacité des organisations à superviser et corriger les décisions automatisées afin que les systèmes d’intelligence artificielle soient conçus pour une collaboration homme-machine au service de l’humain. À compter de 2023, ce référentiel sera la base servant à l’obtention du label Positive AI, attribuable à l’issue d’un audit indépendant.


Le label Positive AI a pour ambition de s’ouvrir à toute entreprise qui gère ou développe des systèmes d’intelligence artificielle

Sur la base de ce premier travail collectif, le label Positive AI a pour ambition de s’ouvrir à toute entreprise qui gère ou développe des systèmes d’intelligence artificielle. Positive AI se veut à la fois une base de ressources et une communauté d’experts pour faire avancer l’éthique dans l’intelligence artificielle, partager des expériences et rendre l’IA Responsable accessible à tous les dirigeants et aux data experts quelle que soit leur maturité, leur industrie ou leur métier.

Positive AI souhaite s’ouvrir à la société civile autant que renforcer son expertise. L’association s’est dotée d’un comité d’experts en intelligence artificielle et en éthique qui doit apporter son éclairage afin que le référentiel et les méthodes d’évaluation puissent être enrichis.

Trois universitaires au comité d’experts de l’association

Ce comité d’experts est composé de 3 personnalités. Il s’agit de Raja Chatila, professeur émérite de robotique, d’IA et d’éthique à Sorbonne Université ; Caroline Lequesne Roth, Maître de conférences en droit public, et Responsable du Master 2 Droit algorithmique et gouvernance des données à l’Université Côte d’Azur ; Bertrand Braunschweig, coordonnateur scientifique du programme Confiance.ai.

84% des entreprises affirment que l’intelligence artificielle responsable devrait être une priorité, seules 16% d’entre elles ont développé un programme mature

Selon une étude récente du cabinet conseil BCG (Boston Consulting group), si 84% des entreprises affirment que l’intelligence artificielle responsable devrait être une priorité, seules 16% d’entre elles ont développé un programme mature, notamment par manque de solutions opérationnelles et d’outils pour l’appliquer. « Positive AI ambitionne de créer un espace d’échange, de travail, et des outils concrets et partagés, dédiés aux entreprises qui souhaitent déployer une IA Responsable » présente Laetitia Orsini Sharps.

L’objectif est à long terme. « Cette démarche opérationnelle s’inscrit dans les propositions des pouvoirs publics. À terme, notre ambition est que ce label devienne une référence, en France et en Europe pour tous ceux qui souhaitent développer une Intelligence Artificielle éthique et respectueuse de la société » poursuit-elle. Positive AI est destiné à accueillir d’autres entreprises de toutes tailles qui souhaiteraient s’engager dans cette démarche vers une intelligence artificielle responsable et une vision positive de son usage dans les entreprises.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *