Glossaire IA · Lettre T

Token (LLM) — définition, ratio en français et coût 2026

Qu'est-ce qu'un token en IA ? Définition simple, ratio mots/tokens en français, coût par token en 2026 selon les modèles (Claude, GPT, Mistral).

Un token est l’unité élémentaire qu’un LLM manipule. Ce n’est pas un mot, ni une lettre — c’est un fragment de texte (souvent un mot court entier, ou un morceau de mot long). Tous les LLM facturent à l’usage en tokens entrants (votre prompt) et tokens sortants (leur réponse). Comprendre les tokens, c’est comprendre votre facture.

Ratio mots/tokens en français

En anglais, 1 token ≈ 0,75 mot. En français, 1 token ≈ 0,5 à 0,6 mot — la langue est plus tokenisée à cause des accents, des conjugaisons, et des mots composés. Ordres de grandeur :

  • 1 page A4 (~ 500 mots) → ~ 850 tokens en français.
  • 1 contrat de 10 pages → ~ 8 500 tokens.
  • 1 base documentaire de 1 000 pages → ~ 850 000 tokens.

Astuce : utilisez le tokenizer officiel d’Anthropic ou OpenAI pour estimer précisément avant de partir en prod.

Coût par token en 2026

Prix indicatifs en mars 2026, en $ par million de tokens (1M = ~ 600 000 mots français) :

ModèleInputOutput
Claude Haiku 4.50,804,00
GPT-5-mini0,150,60
Mistral Small0,200,60
Claude Sonnet 4.63,0015,00
GPT-51,2510,00
Mistral Large2,006,00
Claude Opus 4.615,0075,00

L’output est typiquement 3 à 5× plus cher que l’input. C’est pour ça qu’il vaut mieux structurer ses prompts pour des sorties courtes quand c’est possible.

En pratique pour une PME

Une fenêtre de chat client typique consomme 2 000 tokens en input (system prompt + historique) et 300 tokens en output par message. Sur Claude Sonnet 4.6, ça fait 0,011 $ par message. Sur 5 000 messages/mois → 55 $/mois. Très soutenable pour la plupart des PME.

Vigilance : un RAG mal optimisé qui injecte 8 000 tokens de contexte à chaque requête multiplie le coût par 4. Le prompt caching (Claude, OpenAI) réduit ces coûts de 70 à 90 % sur les parties statiques.

Pour aller plus loin

Vous voulez optimiser votre coût en tokens ? Audit IA Kezify.

← Retour au glossaire
#token#définition#LLM#coût