Une hallucination d’un LLM, c’est une réponse fausse énoncée avec assurance, sans signal d’incertitude. Le modèle invente un fait, une référence, un chiffre, une jurisprudence — et le présente comme vrai. C’est le risque numéro un des LLM en entreprise : pas la lenteur, pas le coût, l’erreur silencieuse.
En pratique
Exemples vus chez nos clients :
- Un cabinet d’avocats : le LLM invente un arrêt de la Cour de cassation qui n’existe pas, avec une fausse référence “Cass. com. 14 mars 2019, n° 17-31.234”. Plausible, faux.
- Un cabinet comptable : le LLM affirme que “le seuil de franchise TVA pour les services est de 36 800 €” — mauvaise tranche, mauvaise année.
- Un e-commerce : le LLM répond “votre commande est livrée” sans avoir consulté le statut réel.
Fréquence en 2026
Sur les modèles frontier de 2026 (Claude Sonnet 4.6, GPT-5, Gemini 2.5 Pro, Mistral Large), le taux d’hallucination factuelle est descendu à 2 à 6 % sur des questions générales et 15 à 30 % sur des questions de niche (jurisprudence très spécifique, données chiffrées de marché). Toujours trop pour de la production sans garde-fou.
Comment la réduire en entreprise
Quatre leviers, à empiler :
- RAG — donner au LLM les documents source. Il ne peut pas inventer un prix qui est explicitement cité dans le contexte injecté.
- Citations forcées — exiger que chaque affirmation cite la source du contexte. Si le LLM ne peut pas citer, il doit dire “je ne sais pas”.
- Vérification structurée — pour les chiffres et dates, sortir en JSON et faire valider par une fonction déterministe (calcul, regex, type).
- Évaluation continue — un dataset d’évaluation de 50 à 200 cas qui tourne à chaque déploiement. Sans eval, vous ne savez pas si vous régressez.
Avec ces 4 leviers, on descend à 0,5-2 % d’erreur factuelle en prod sur des cas PME standards.
Pour aller plus loin
- Évaluation LLM en production — métriques de fiabilité.
- RAG — définition — le levier principal anti-hallucination.
- Pourquoi 80 % des projets IA échouent — les hallucinations en sont une cause.
- Audit IA Kezify — concevoir vos garde-fous.
Vous voulez réduire les hallucinations dans votre entreprise ? Audit IA Kezify.