Les IA génératives hallucinent, c’est à dire inventent des informations erronées mais crédibles, et ce sera toujours comme cela car l’IA générative est basée sur les probabilités. C’est la clarification très nette du panel d’experts réuni à l’occasion du salon Viva Tech 2025 sur le sujet des hallucinations des IA génératives.
Aucune garantie d’une IA sans hallucination
On peut réduire ces hallucinations par différents dispositifs techniques mais il n’y a rien à l’horizon qui indique que l’on aura un jour une IA générative sans aucune hallucination. Ces risques d’hallucinations, que l’on peut appeler des bugs, soulèvent des questions de responsabilités et de confiance dans les IA génératives. Ce sont à la fois des responsabilités commerciales pour les entreprises et des responsabilités juridiques, notamment dans le cadre de l’AI Act.
Il faut garder l’humain dans la boucle sans que cela soit un remède à toute épreuve
C’est ce que l’on retient des interventions de Sasha Rubel, responsable de la politique d’IA générative en Europe d’Amazon Web Services (AWS), de Giada Pistilli, spécialiste de l’éthique chez la plateforme d’IA Hugging Face et Amr Awadallah, DG de Vectara, société spécialisée en IA générative.
L’IA repose sur un raisonnement probabiliste
Les IA auront toujours des hallucinations, et nous devons simplement l’accepter, confirme Sasha Rubel. « Les LLM sont-ils faillibles ? Oui. Et ont-ils des hallucinations ? Oui. Cela nous ramène à la nature même de l’IA en tant que technologie, qui repose sur un raisonnement probabiliste et statistique » rappelle-t-elle.
“Les hallucinations que tout le monde voit aujourd’hui seront toujours présentes”
Dès lors, la responsable d’AWS considère comme essentiel de travailler sur des technologies capables de combler les lacunes et de réduire les risques associés, et de les compléter par une supervision humaine. Mais il n’existe pas de solution technique. « Existe-t-il actuellement une technologie autonome capable d’atténuer les hallucinations ? Non » répond-elle
Associer les dispositifs techniques et la supervision humaine
« Est-il vraiment important de combiner différentes approches, telles que des garde-fous, le filtrage des résultats, le RAG (Retrieval Augmented Generation) et l’ancrage contextuel ou les vérificateurs de références ? Je trouve le filtrage particulièrement intéressant. Associées à la supervision humaine, ces mesures permettent d’atténuer les risques liés aux hallucinations » dit-elle.
“Nous devons veiller à ce que la supervision humaine reste un principe essentiel”
« Le meilleur scénario est celui où les outils d’IA fonctionnent le mieux lorsqu’ils sont associés à des experts qui connaissent leur domaine et qui peuvent non seulement vérifier les faits, mais aussi les exploiter de manière plus efficace » considère quant à elle, Giada Pistilli de Hugging Face.
Et vous, qu’en pensez-vous ?
Une idée, une réaction, une question ? Laissez-nous un mot ci-dessous.
Je réagis à cet articleTop lectures en ce moment
-
Stellantis adopte les agents IA, arcbouté sur une plateforme d’IA bâtie avec Dat...
-
La CDP (Customer Data Platform), un projet clé de la transformation Data d’Axa F...
-
Doctolib lance un assistant vocal de gestion des appels des patients
L'IA clé de nos besoins vitaux dans l'eau, l'électricité et le gaz
Marchés de l’eau : l’IA générative arrive dans les réponses aux appels d’offres des collectivités
Saur, spécialiste de la distribution d’eau potable, fait évoluer son processus de réponse aux appels d’offres des collectivités et des industriels en y injectant de l’IA géné…
Stockage de l’électricité : l’IA générative outil d’accélération clé chez Engie
Le stockage de l’électricité est un enjeu stratégique. Engie s’y attelle et mobilise pour cela l’IA générative de type RAG, c'est-à-dire basée sur le traçage des documents source. …
Nouvelle donne dans le gaz naturel : GRDF s’adapte en utilisant l’IA
GRDF, leader de la distribution du gaz naturel en France, affine sa stratégie d’IA. Il s’appuie sur des serveurs internes pour la confidentialité des données de ses clients. GRDF c…















Oui, les moteurs d’IA ne peuvent pas être utilisés comme sources de vérité absolue.
Par contre, ce sont de puissants outils lorsqu’ils sont utilisés de manière critique et en complément de l’expertise humaine. A noter que la vérification croisée entre différents moteurs est la méthode la plus efficace pour limiter les hallucinations, les biais et les erreurs. C’est aussi la démarche de base de tout travail journalistique ou scientifique. Et elle permet également de profiter du meilleur de chaque moteur.
Les moteurs d’intelligence artificielle peuvent produire des résultats faux, parfois à l’exact opposé de la vérité, dans plusieurs situations bien précises.
Ces erreurs grossières s’expliquent en effet par le fonctionnement probabiliste du moteur, mais aussi par la qualité et la représentativité des données d’entraînement, l’absence de mécanisme de vérification interne et l’opacité des algorithmes qui favorise l’apparition et la persistance de raisonnements défaillants difficilement détectables et corrigeables.
Il est impératif de recouper l’information en comparant avec d’autres moteurs d’IA (principe de vérification croisée).