Collez votre texte
L'estimation se met à jour en temps réel à mesure que vous tapez ou collez du contenu. Approximation calibrée pour le français et l'anglais (1 token ≈ 4 caractères).
Coût estimé sur les principaux modèles (input)
Si vous envoyez ce texte comme input à un appel LLM, voici le coût correspondant. Coûts en USD, conversion EUR à 0,93. Tarifs publics mai 2026, hors caching ni batch API.
| Modèle | Coût 1 appel | 1 000 appels / mois | 10 000 appels / mois |
|---|
À quoi sert un tokenizer ?
Le pricing LLM est facturé au token, pas au mot ni au caractère. Comprendre le ratio de votre texte (en moyenne 1 token = 4 caractères en français) vous permet de :
- Vérifier que votre prompt rentre dans la fenêtre contexte — Claude 4.6 Sonnet : 200 k tokens. GPT-4o : 128 k. Gemini 2.5 Pro : 2 M.
- Optimiser vos prompts — un prompt système réduit de 30 % divise votre facture proportionnellement.
- Chiffrer un projet RAG avant de le construire — taille moyenne d'un chunk × nombre de chunks récupérés × nombre d'appels mensuels = coût mensuel input.
- Repérer les requêtes anormalement longues — souvent symptôme d'un RAG mal calibré ou d'un agent qui trimballe tout l'historique.
Limites de l'estimation
Cet outil utilise une heuristique chars / 4 qui est précise à ±10 % pour les langues latines. Les vrais tokenizers (cl100k pour OpenAI, tokenizer Claude, SentencePiece pour Mistral) diffèrent légèrement entre eux et peuvent compter différemment :
- les emojis (1 emoji = 2 à 4 tokens selon le modèle),
- les caractères chinois / japonais / coréens (1 caractère = 1 token souvent),
- les langages techniques (code, SQL, JSON) qui contiennent beaucoup de symboles,
- les nombres (un long nombre est souvent fragmenté).
Pour un chiffrage budget précis avant production, on recommande de mesurer en conditions réelles avec le SDK officiel de chaque vendor.