Outil gratuit Kezify

Tokenizer LLM — combien de tokens dans votre prompt ?

Collez n'importe quel texte (prompt, document, FAQ, transcript) — l'outil estime le nombre de tokens et le coût correspondant sur les 4 principaux LLM utilisés en production en 2026. Tout est calculé dans votre navigateur, rien n'est envoyé à un serveur.

Collez votre texte

L'estimation se met à jour en temps réel à mesure que vous tapez ou collez du contenu. Approximation calibrée pour le français et l'anglais (1 token ≈ 4 caractères).

Caractères 0
Mots 0
Tokens estimés 0

Coût estimé sur les principaux modèles (input)

Si vous envoyez ce texte comme input à un appel LLM, voici le coût correspondant. Coûts en USD, conversion EUR à 0,93. Tarifs publics mai 2026, hors caching ni batch API.

Modèle Coût 1 appel 1 000 appels / mois 10 000 appels / mois

À quoi sert un tokenizer ?

Le pricing LLM est facturé au token, pas au mot ni au caractère. Comprendre le ratio de votre texte (en moyenne 1 token = 4 caractères en français) vous permet de :

Limites de l'estimation

Cet outil utilise une heuristique chars / 4 qui est précise à ±10 % pour les langues latines. Les vrais tokenizers (cl100k pour OpenAI, tokenizer Claude, SentencePiece pour Mistral) diffèrent légèrement entre eux et peuvent compter différemment :

Pour un chiffrage budget précis avant production, on recommande de mesurer en conditions réelles avec le SDK officiel de chaque vendor.

← Tous les outils
→ Comparateur pricing → Prompt tester