Glossaire IA · Lettre T

Température LLM — définition et impact sur les réponses IA 2026

Qu'est-ce que la température dans un LLM ? Définition, plage de valeurs, impact concret sur les réponses, et bonnes pratiques en entreprise PME.

La température d’un LLM est un paramètre qui contrôle l’aléatoire dans la génération. Valeur typique : entre 0 (déterministe, le modèle prend toujours le mot le plus probable) et 1 ou 2 (créatif, le modèle pioche dans les options moins probables). Mathématiquement, la température divise les logits avant softmax — basse = distribution piquée, haute = distribution lissée.

En pratique

Même prompt “Donne 3 noms de marque pour un café” :

  • Temperature = 0 : “Café Mode, Café Origin, Café Pure” (sortie répétable, mots prévisibles)
  • Temperature = 0.7 : “Brew & Bean, Café Étincelle, Maison Aria” (mix créativité/cohérence)
  • Temperature = 1.5 : “Zinkos, Brûlot Lunaire, Caféra-X” (créatif mais parfois bizarre)
  • Temperature = 2 : “Plus souvent du grand n’importe quoi”

Bonnes pratiques entreprise

Tâches déterministes (extraction, classification, résumé technique) :

  • Température 0 à 0.3. Vous voulez la même réponse à chaque fois pour une même entrée.

Tâches créatives (rédaction marketing, brainstorming, naming) :

  • Température 0.7 à 1.0. Vous voulez de la variété et de l’originalité.

Tâches de code :

  • Température 0 à 0.2. Le code doit être correct, pas créatif.

Conversations naturelles :

  • Température 0.7. Compromis fluide entre cohérence et naturel.

Piège courant

Mettre la température à 0 ne garantit PAS un déterminisme parfait dans la pratique — les implémentations float, le batching GPU et les optimisations cause des micro-variations. Si vous avez besoin d’un déterminisme absolu (audit réglementaire), utilisez en plus un seed fixe et le paramètre top_p=1.0 quand le fournisseur le permet.

Évolution 2026

Sur les modèles reasoning natifs (Claude 4.6 Reasoning, GPT-5 Reasoning, o3), la température n’est plus exposée à l’utilisateur ou très contrainte — le modèle ajuste son sampling en interne selon la phase de raisonnement.

Pour aller plus loin

Vous voulez calibrer vos LLM en production ? Audit IA Kezify.

← Retour au glossaire
#température#temperature#paramètres LLM#sampling