La température d’un LLM est un paramètre qui contrôle l’aléatoire dans la génération. Valeur typique : entre 0 (déterministe, le modèle prend toujours le mot le plus probable) et 1 ou 2 (créatif, le modèle pioche dans les options moins probables). Mathématiquement, la température divise les logits avant softmax — basse = distribution piquée, haute = distribution lissée.
En pratique
Même prompt “Donne 3 noms de marque pour un café” :
- Temperature = 0 : “Café Mode, Café Origin, Café Pure” (sortie répétable, mots prévisibles)
- Temperature = 0.7 : “Brew & Bean, Café Étincelle, Maison Aria” (mix créativité/cohérence)
- Temperature = 1.5 : “Zinkos, Brûlot Lunaire, Caféra-X” (créatif mais parfois bizarre)
- Temperature = 2 : “Plus souvent du grand n’importe quoi”
Bonnes pratiques entreprise
Tâches déterministes (extraction, classification, résumé technique) :
- Température 0 à 0.3. Vous voulez la même réponse à chaque fois pour une même entrée.
Tâches créatives (rédaction marketing, brainstorming, naming) :
- Température 0.7 à 1.0. Vous voulez de la variété et de l’originalité.
Tâches de code :
- Température 0 à 0.2. Le code doit être correct, pas créatif.
Conversations naturelles :
- Température 0.7. Compromis fluide entre cohérence et naturel.
Piège courant
Mettre la température à 0 ne garantit PAS un déterminisme parfait dans la pratique — les implémentations float, le batching GPU et les optimisations cause des micro-variations. Si vous avez besoin d’un déterminisme absolu (audit réglementaire), utilisez en plus un seed fixe et le paramètre top_p=1.0 quand le fournisseur le permet.
Évolution 2026
Sur les modèles reasoning natifs (Claude 4.6 Reasoning, GPT-5 Reasoning, o3), la température n’est plus exposée à l’utilisateur ou très contrainte — le modèle ajuste son sampling en interne selon la phase de raisonnement.
Pour aller plus loin
- Top-p sampling — définition — paramètre complémentaire.
- Prompt engineering — définition — où température compte.
- LLM — définition — fonctionnement général.
- Audit IA Kezify — calibrer température pour vos use cases.
Vous voulez calibrer vos LLM en production ? Audit IA Kezify.