Glossaire IA · Lettre Z

Zero-shot learning — définition et usage avec un LLM en 2026

Qu'est-ce que le zero-shot learning ? Définition, principe, différence avec few-shot, modèles instruct-tuned, et cas d'usage concrets en entreprise.

Le zero-shot learning consiste à demander à un LLM d’effectuer une tâche sans aucun exemple dans le prompt — uniquement avec une instruction en langage naturel. C’est devenu le mode par défaut depuis les modèles instruct-tuned (GPT-4, Claude, Mistral Large).

En pratique

Exemple : “Classe ce ticket support en (technique, commercial, RH, autre). Texte : ’…’”. Aucun exemple, le LLM répond directement.

Le zero-shot fonctionne pour 70 à 80 % des tâches en 2026 grâce aux LLM instruct-tuned. Il échoue typiquement sur :

  • Les formats de sortie très spécifiques (JSON imbriqué exotique).
  • Les domaines très techniques (juridique métier, médical pointu).
  • Les conventions internes (“priorité P0/P1/P2 selon notre matrice”).

Dans ces cas, passer en few-shot ou fine-tuning.

Pourquoi c’est important pour votre projet IA

  • Le zero-shot est gratuit en tokens : juste l’instruction, pas d’exemples.
  • Idéal pour prototyper un agent en 1 jour, mesurer le baseline, puis itérer.
  • Permet de challenger un fine-tuning : si zero-shot atteint déjà 90 %, le fine-tune n’est probablement pas rentable.

Liens utiles

← Retour au glossaire
#zero-shot#LLM#instruct#prompt