Outil gratuit Kezify

Prompt Tester — comparez 4 LLM avec le même prompt

Vous hésitez entre Claude, GPT, Gemini et Mistral pour votre cas d'usage ? Saisissez votre prompt système et un message utilisateur — l'outil prépare la requête au bon format pour chaque API et vous montre la commande cURL prête à exécuter chez vous. L'exécution réelle nécessite vos clés API et arrive dans une prochaine version (rejoignez la liste d'attente).

Construisez votre prompt

Tout reste dans votre navigateur. Aucune clé n'est demandée, aucun appel n'est envoyé à un serveur. La sortie est un snippet cURL que vous pouvez exécuter chez vous, ou nous demander d'évaluer dans un audit.

Le rôle de l'agent, son ton, ses contraintes. Exemple : "Tu es un agent commercial Kezify, ton ton est direct, factuel, sans emojis, en français."

La question concrète. Exemple : "Résume cet article en 3 bullet points."

Requêtes prêtes à exécuter

Pour chacun des 4 providers, on génère la requête correspondante au format JSON et la commande cURL prête à coller. Remplacez la variable d'environnement par votre clé API et exécutez chez vous.

// La requête générée s'affichera ici.

Pourquoi tester avant de coder

Les 4 providers ont des forces et des faiblesses différentes. Sur un même prompt, vous observerez en pratique :

Aller plus loin — version exécutable

Une version qui exécute réellement les 4 providers en parallèle est prévue (Q3 2026). Pour être prévenu·e à la sortie ou tester votre cas d'usage avec nous dans un audit de 2-3 semaines, écrivez-nous à [email protected].

← Tous les outils
→ Pricing LLM → Tokenizer