Le few-shot learning consiste à donner 2 à 10 exemples dans le prompt pour montrer au LLM le format ou le raisonnement attendu, sans ré-entraîner le modèle. C’est la version “in-context” de l’apprentissage : le modèle apprend en lisant les exemples au moment de la requête.
En pratique
Cas typique : extraction d’entités d’une commande commerciale.
Extrais société, montant et échéance.
Texte : "ACME 12 500€ paiement à 30 jours"
→ {société: "ACME", montant: 12500, échéance_jours: 30}
Texte : "Bidule SARL 4 200 EUR net 60"
→ {société: "Bidule SARL", montant: 4200, échéance_jours: 60}
Texte : "Truc Co. €8.900 30j net"
→
Trois exemples = +20 à +40 % de précision vs zero-shot sur ce genre de tâche structurée.
Pourquoi c’est important pour votre projet IA
- Permet d’éviter un fine-tuning (lent, cher) sur des tâches stables et bornées.
- Sweet spot : 3 à 5 exemples couvrant les cas limites (format inhabituel, valeurs aberrantes).
- Coût : alourdit chaque appel — pour un agent à fort volume, fine-tuner devient rentable au-delà de ~50k requêtes/mois.
Liens utiles
- Zero-shot learning — définition
- Prompt engineering — définition
- Fine-tuning — définition
- Audit IA Kezify — choisir entre few-shot et fine-tuning.
← Retour au glossaire
#few-shot#in-context learning#prompt#LLM