Le grounding (“ancrage” en français) consiste à forcer un LLM à baser sa réponse sur des sources vérifiables (documents, base de données, recherche web) plutôt que sur ses connaissances internes potentiellement obsolètes ou hallucinatoires. Si une affirmation n’est pas attestée dans une source, le LLM doit dire “je ne sais pas” plutôt qu’inventer.
En pratique
Réponse non-grounded (LLM pur) :
“Le tarif de votre offre Premium 50 utilisateurs est de 45€/mois/utilisateur.” (potentiellement inventé)
Réponse grounded (avec RAG + citations) :
“Le tarif Premium pour 50 utilisateurs est 38€/mois/utilisateur (référence : grille tarifaire 2026, page 3 [source]). Ce tarif inclut le support 8h-18h et 99.5 % SLA.”
L’utilisateur peut vérifier la source. Le LLM ne peut plus halluciner sans laisser de trace.
Stack grounding 2026
- RAG : récupérer les passages pertinents avant de répondre.
- Citations obligatoires : prompt système qui force le LLM à citer ses sources avec marqueurs
[source 1],[source 2]. - Refus structuré : si aucune source ne couvre la question, le LLM répond “Je n’ai pas de source fiable pour répondre. Voulez-vous que je cherche ailleurs ?”
- Validation post-hoc : un classifieur sépare les phrases groundés des inventées et flag.
Outils 2026
- Anthropic Claude : citations natives via API (paramètre
citations), retournent les passages exacts utilisés. - OpenAI GPT : citations via search tool (Web Search) ou via prompt instructions.
- Perplexity : entièrement grounded par design, chaque phrase cite la source.
- You.com / Bing Chat / Google AI Overviews : grounded par recherche web.
Pour PME
Le grounding est obligatoire pour :
- Customer support : citer la FAQ, la politique, les CGV. Pas d’invention de remise.
- Conseil juridique / médical / fiscal : citer le code, l’arrêt, l’article.
- Reporting : citer la source de chaque chiffre.
- Recherche concurrentielle : citer la page web ou le rapport.
Sans grounding, votre LLM est un orateur brillant qui dit n’importe quoi avec confiance. C’est le numéro 1 des risques business IA en 2026.
Métriques de qualité
- Faithfulness : % de phrases supportées par les sources (cible : >95 % en prod).
- Answer relevance : la réponse répond-elle à la question (cible : >90 %).
- Context precision : les passages récupérés sont-ils pertinents (cible : >80 %).
Outils pour mesurer : Ragas, TruLens, DeepEval.
Pour aller plus loin
- RAG — définition — l’architecture qui rend le grounding pratique.
- Hallucination IA — définition — le problème que le grounding résout.
- Évaluation LLM — définition — mesurer le grounding.
- Audit IA Kezify — concevoir un système IA grounded.
Vous voulez éliminer les hallucinations de vos agents IA ? Audit IA Kezify.