L’instruct tuning (ou instruction tuning) est une étape de fine-tuning supervisé qui apprend à un LLM à suivre des instructions naturelles (“résume ce texte”, “écris une réponse polie”). Sans cette étape, un LLM “base” complète juste du texte et ne sait pas répondre à des consignes — il se contenterait de générer la suite la plus probable, pas de faire ce qu’on lui demande.
En pratique
Un modèle base reçoit “Quel est le capitale de la France ?” et peut répondre :
“Quel est le capitale de la France ? Quelle est sa population ? Quels sont ses monuments principaux ? Voici les réponses…”
Il complète comme dans un texte web, sans répondre directement.
Un modèle instruct-tuned répond :
“Paris.”
C’est cette différence qui rend les LLM utilisables. Tous les LLM commerciaux 2026 (Claude, GPT, Gemini, Mistral) sont instruct-tuned par défaut. On vend rarement le modèle base.
Comment ça marche
L’instruct tuning utilise un dataset de paires (instruction, réponse idéale) — typiquement 10k à 1M d’exemples annotés par des humains. Le modèle apprend à mapper l’instruction → la réponse au format attendu (poli, structuré, factuel).
Stack 2026 typique :
- Pre-training : 10T tokens de texte web. Modèle “base”.
- Instruct tuning (SFT) : 100k-1M instructions. Modèle “instruct”.
- RLHF / DPO : alignement final pour éviter les sorties toxiques. Modèle “production”.
Pour PME
Vous n’avez généralement pas besoin de re-faire un instruct tuning — utilisez les modèles instruct-tuned de Claude/GPT/Mistral. Le seul cas où on instruct-tune custom : adapter un modèle open-source (Llama base, Mistral base) à un domaine très spécifique (médical, juridique).
Pour aller plus loin
- Fine-tuning — définition — l’étape parente.
- LoRA — définition — comment instruct-tuner sans tout ré-entraîner.
- LLM — définition — fonctionnement général.
- Audit IA Kezify — choisir entre instruct base ou custom tuning.
Vous voulez fine-tuner un LLM pour votre métier ? Audit IA Kezify.