Glossaire IA · Lettre H

Hallucination d'un LLM — définition, fréquence et solutions

Qu'est-ce qu'une hallucination d'IA ? Définition, fréquence en 2026, comment la réduire en entreprise (RAG, citations, évaluation) — guide concret.

Une hallucination d’un LLM, c’est une réponse fausse énoncée avec assurance, sans signal d’incertitude. Le modèle invente un fait, une référence, un chiffre, une jurisprudence — et le présente comme vrai. C’est le risque numéro un des LLM en entreprise : pas la lenteur, pas le coût, l’erreur silencieuse.

En pratique

Exemples vus chez nos clients :

  • Un cabinet d’avocats : le LLM invente un arrêt de la Cour de cassation qui n’existe pas, avec une fausse référence “Cass. com. 14 mars 2019, n° 17-31.234”. Plausible, faux.
  • Un cabinet comptable : le LLM affirme que “le seuil de franchise TVA pour les services est de 36 800 €” — mauvaise tranche, mauvaise année.
  • Un e-commerce : le LLM répond “votre commande est livrée” sans avoir consulté le statut réel.

Fréquence en 2026

Sur les modèles frontier de 2026 (Claude Sonnet 4.6, GPT-5, Gemini 2.5 Pro, Mistral Large), le taux d’hallucination factuelle est descendu à 2 à 6 % sur des questions générales et 15 à 30 % sur des questions de niche (jurisprudence très spécifique, données chiffrées de marché). Toujours trop pour de la production sans garde-fou.

Comment la réduire en entreprise

Quatre leviers, à empiler :

  1. RAG — donner au LLM les documents source. Il ne peut pas inventer un prix qui est explicitement cité dans le contexte injecté.
  2. Citations forcées — exiger que chaque affirmation cite la source du contexte. Si le LLM ne peut pas citer, il doit dire “je ne sais pas”.
  3. Vérification structurée — pour les chiffres et dates, sortir en JSON et faire valider par une fonction déterministe (calcul, regex, type).
  4. Évaluation continue — un dataset d’évaluation de 50 à 200 cas qui tourne à chaque déploiement. Sans eval, vous ne savez pas si vous régressez.

Avec ces 4 leviers, on descend à 0,5-2 % d’erreur factuelle en prod sur des cas PME standards.

Pour aller plus loin

Vous voulez réduire les hallucinations dans votre entreprise ? Audit IA Kezify.

← Retour au glossaire
#hallucination#définition#fiabilité#LLM