Glossaire IA · Lettre R

RAG (Retrieval-Augmented Generation) — définition et usage en entreprise

Qu'est-ce que le RAG ? Définition, principe, pourquoi c'est nécessaire en entreprise française, et différence concrète avec le fine-tuning d'un LLM.

Le RAG (Retrieval-Augmented Generation) est une technique qui permet à un LLM de répondre à partir de documents internes en 3 étapes : recherche vectorielle des passages pertinents → injection de ces extraits dans le prompt → génération de la réponse ancrée sur les sources. Concrètement, le RAG résout deux problèmes que le LLM seul ne peut pas adresser : les hallucinations sur vos données privées et la fraîcheur des informations.

Adopté par 78 % des projets IA d’entreprise déployés en France en 2026 [source : Kezify, n=150 projets PME]. Sur l’ensemble des projets PME que nous avons livrés, 9 sur 10 démarrent par un RAG avant d’envisager fine-tuning ou agents complexes.

En pratique : comment fonctionne un RAG ?

Cas typique en PME : une assistante commerciale veut répondre “quel est le tarif de notre offre Premium pour 50 utilisateurs ?”. Le LLM seul invente. Avec un RAG :

  1. La question est convertie en embedding (vecteur sémantique).
  2. Le système cherche dans la base vectorielle les 5 passages les plus proches : grille tarifaire, CGV, ancienne propale.
  3. Ces passages sont injectés dans le prompt envoyé au LLM.
  4. Le LLM répond en citant les sources, avec le bon prix.

Stack 2026 typique en PME : embeddings via voyage-3 ou Mistral Embed, stockage dans pgvector (Postgres) ou Qdrant, orchestration avec LlamaIndex ou Haystack.

Pourquoi le RAG est-il nécessaire en entreprise ?

Parce que vos documents internes ne sont pas dans l’entraînement du LLM. Sans RAG, le modèle hallucine vos prix, vos process internes, vos clauses CGV. Le RAG résout aussi un problème RGPD : vos données restent dans votre base, on n’envoie au LLM que les extraits utiles à la requête courante.

RAG ou fine-tuning : lequel choisir ?

Le RAG injecte du contexte au moment de la requête. Le fine-tuning ré-entraîne le modèle sur vos données. Règle 2026 :

  • Choisir RAG si les données changent souvent, si on doit citer la source, si le volume est < 10 millions de pages.
  • Choisir fine-tuning pour adapter un style ou un format, pas pour ajouter des connaissances.

90 % des projets PME que nous voyons commencent par du RAG. À noter qu’un RAG bien fait coûte ~10× moins cher qu’un fine-tuning pour ajouter ou mettre à jour des connaissances [source : Kezify internal data, comparatif 12 cas clients 2026].

À retenir

  • Le RAG résout les hallucinations sans fine-tuner le modèle — il injecte les bonnes sources au moment de la requête
  • Adopté par 78 % des projets IA d’entreprise en France en 2026 [source : Kezify, n=150 projets]
  • Coût ~10× moins cher qu’un fine-tuning pour mettre à jour des connaissances
  • Stack typique 2026 : embedding (voyage-3 ou Mistral Embed) + vector DB (pgvector, Qdrant) + LLM + reranker
  • Limite principale : qualité du chunking + fraîcheur des données — un mauvais découpage casse 100 % de la valeur

Pour aller plus loin

Vous voulez utiliser un RAG dans votre entreprise ? Audit IA Kezify.

← Retour au glossaire
#RAG#définition#retrieval#embedding