L’actualité de la transformation

Viva Tech 2025 : les IA génératives hallucinent, car elles sont probabilistes

Sasha Rubel, responsable de la politique d'IA générative en Europe d’AWS, 12 juin

Les IA génératives hallucinent, c’est à dire inventent des informations erronées mais crédibles, et ce sera toujours comme cela car l’IA générative est basée sur les probabilités. C’est la clarification très nette du panel d’experts réuni à l’occasion du salon Viva Tech 2025 sur le sujet des hallucinations des IA génératives.

Aucune garantie d’une IA sans hallucination

On peut réduire ces hallucinations par différents dispositifs techniques mais il n’y a rien à l’horizon qui indique que l’on aura un jour une IA générative sans aucune hallucination. Ces risques d’hallucinations, que l’on peut appeler des bugs, soulèvent des questions de responsabilités et de confiance dans les IA génératives. Ce sont à la fois des responsabilités commerciales pour les entreprises et des responsabilités juridiques, notamment dans le cadre de l’AI Act.

Il faut garder l’humain dans la boucle sans que cela soit un remède à toute épreuve

A plus court terme, cela amène l’arrêt par les entreprises de ces projets d’IA génératives qui ont produit des hallucinations.  Il faut garder l’humain dans la boucle sans que cela soit un remède à toute épreuve car l’humain peut ne pas détecter une erreur. Le niveau de risque pris en adoptant les résultats de l’IA est alors à prendre en compte.

C’est ce que l’on retient des interventions de Sasha Rubel, responsable de la politique d’IA générative en Europe d’Amazon Web Services (AWS),  de Giada Pistilli, spécialiste de l’éthique chez la plateforme d’IA Hugging Face et Amr Awadallah, DG de Vectara, société spécialisée en IA générative.

L’IA repose sur un raisonnement probabiliste


Les IA auront toujours des hallucinations, et nous devons simplement l’accepter, confirme Sasha Rubel. « Les LLM sont-ils faillibles ? Oui. Et ont-ils des hallucinations ? Oui. Cela nous ramène à la nature même de l’IA en tant que technologie, qui repose sur un raisonnement probabiliste et statistique » rappelle-t-elle.


“Les hallucinations que tout le monde voit aujourd’hui seront toujours présentes”

« Les LLM auront toujours des hallucinations » affirme aussi Amr Awadallah. « La raison pour laquelle ils auront toujours des hallucinations est que les LLM sont, par nature, probabilistes. Il y a une probabilité, et dès qu’il y a une probabilité, il y a un risque d’erreur. C’est comme ça » résume-t-il. « Il est clair que les hallucinations que tout le monde voit aujourd’hui seront toujours présentes » ajoute-t-il.

Newsletter La Revue du Digital

Dès lors, la responsable d’AWS considère comme essentiel de travailler sur des technologies capables de combler les lacunes et de réduire les risques associés, et de les compléter par une supervision humaine. Mais il n’existe pas de solution technique. « Existe-t-il actuellement une technologie autonome capable d’atténuer les hallucinations ? Non » répond-elle

Associer les dispositifs techniques et la supervision humaine

« Est-il vraiment important de combiner différentes approches, telles que des garde-fous, le filtrage des résultats, le RAG (Retrieval Augmented Generation) et l’ancrage contextuel ou les vérificateurs de références ? Je trouve le filtrage particulièrement intéressant. Associées à la supervision humaine, ces mesures permettent d’atténuer les risques liés aux hallucinations » dit-elle.

Nous devons veiller à ce que la supervision humaine reste un principe essentiel”

Elle veut croire que l’on arrivera un jour à stopper les hallucinations mais elle reconnaît qu’elle dit cela car elle est une éternelle optimiste, engagée en faveur d’une IA responsable et de la recherche collective et ouverte et de l’Open source. « Nous devons veiller à ce que la supervision humaine reste un principe essentiel dans la manière dont nous déployons ces technologies » prévient-elle.

« Le meilleur scénario est celui où les outils d’IA fonctionnent le mieux lorsqu’ils sont associés à des experts qui connaissent leur domaine et qui peuvent non seulement vérifier les faits, mais aussi les exploiter de manière plus efficace » considère quant à elle, Giada Pistilli de Hugging Face.

Et vous, qu’en pensez-vous ?

Une idée, une réaction, une question ? Laissez-nous un mot ci-dessous.

Je réagis à cet article

Top lectures en ce moment

L’actualité de la transformation

Dossier

L'IA clé de nos besoins vitaux dans l'eau, l'électricité et le gaz

Dossier exclusif

Marchés de l’eau : l’IA générative arrive dans les réponses aux appels d’offres des collectivités

Saur, spécialiste de la distribution d’eau potable,  fait évoluer son processus de réponse aux appels d’offres des collectivités et des industriels en y injectant de l’IA géné…

Stockage de l’électricité : l’IA générative outil d’accélération clé chez Engie

Le stockage de l’électricité est un enjeu stratégique. Engie s’y attelle et mobilise pour cela l’IA générative de type RAG, c'est-à-dire basée sur le traçage des documents source. …

Nouvelle donne dans le gaz naturel : GRDF s’adapte en utilisant l’IA

GRDF, leader de la distribution du gaz naturel en France, affine sa stratégie d’IA. Il s’appuie sur des serveurs internes pour la confidentialité des données de ses clients. GRDF c…


2 réactions sur “Viva Tech 2025 : les IA génératives hallucinent, car elles sont probabilistes

  1. Petit

    Oui, les moteurs d’IA ne peuvent pas être utilisés comme sources de vérité absolue.
    Par contre, ce sont de puissants outils lorsqu’ils sont utilisés de manière critique et en complément de l’expertise humaine. A noter que la vérification croisée entre différents moteurs est la méthode la plus efficace pour limiter les hallucinations, les biais et les erreurs. C’est aussi la démarche de base de tout travail journalistique ou scientifique. Et elle permet également de profiter du meilleur de chaque moteur.

    Répondre
  2. petit

    Les moteurs d’intelligence artificielle peuvent produire des résultats faux, parfois à l’exact opposé de la vérité, dans plusieurs situations bien précises.
    Ces erreurs grossières s’expliquent en effet par le fonctionnement probabiliste du moteur, mais aussi par la qualité et la représentativité des données d’entraînement, l’absence de mécanisme de vérification interne et l’opacité des algorithmes qui favorise l’apparition et la persistance de raisonnements défaillants difficilement détectables et corrigeables.
    Il est impératif de recouper l’information en comparant avec d’autres moteurs d’IA (principe de vérification croisée).

    Répondre

Vous, qu’en pensez-vous ?

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Newsletter