Le zero-shot learning consiste à demander à un LLM d’effectuer une tâche sans aucun exemple dans le prompt — uniquement avec une instruction en langage naturel. C’est devenu le mode par défaut depuis les modèles instruct-tuned (GPT-4, Claude, Mistral Large).
En pratique
Exemple : “Classe ce ticket support en (technique, commercial, RH, autre). Texte : ’…’”. Aucun exemple, le LLM répond directement.
Le zero-shot fonctionne pour 70 à 80 % des tâches en 2026 grâce aux LLM instruct-tuned. Il échoue typiquement sur :
- Les formats de sortie très spécifiques (JSON imbriqué exotique).
- Les domaines très techniques (juridique métier, médical pointu).
- Les conventions internes (“priorité P0/P1/P2 selon notre matrice”).
Dans ces cas, passer en few-shot ou fine-tuning.
Pourquoi c’est important pour votre projet IA
- Le zero-shot est gratuit en tokens : juste l’instruction, pas d’exemples.
- Idéal pour prototyper un agent en 1 jour, mesurer le baseline, puis itérer.
- Permet de challenger un fine-tuning : si zero-shot atteint déjà 90 %, le fine-tune n’est probablement pas rentable.
Liens utiles
- Few-shot learning — définition
- Instruct tuning — définition
- Prompt engineering — définition
- Audit IA Kezify — mesurer le baseline zero-shot avant tout fine-tune.
← Retour au glossaire
#zero-shot#LLM#instruct#prompt