Structured output désigne la capacité d’un LLM à retourner sa réponse dans un format strict (JSON conforme à un schéma) plutôt qu’en texte libre. Critique pour l’intégration en production : du texte libre est ambigu à parser, du JSON validé schema est exploitable directement par votre code.
En pratique
Sans structured output :
Prompt : “Extrait le prix et la quantité de cette commande : 3 stylos à 2,50€.” LLM : “Le prix est de 2.50€ et la quantité est 3 stylos.” (texte libre, parser fragile)
Avec structured output (JSON Schema fourni) :
{
"type": "object",
"properties": {
"produit": {"type": "string"},
"quantite": {"type": "integer"},
"prix_unitaire_eur": {"type": "number"}
},
"required": ["produit", "quantite", "prix_unitaire_eur"]
}
LLM :
{"produit": "stylo", "quantite": 3, "prix_unitaire_eur": 2.50}
Parsable directement, validable schema, intégrable dans votre ERP sans regex fragile.
Modes 2026
- Anthropic Claude :
tool_useavec input_schema. Garantie ~99 % de conformité schema sur Sonnet 4.6. - OpenAI GPT : mode
response_format: json_schema(strict mode), garantie 100 % conformité. - Mistral :
response_format: json_object, conformité ~95 %. - Gemini :
responseSchema, mode strict 2026.
OpenAI strict mode contraint le decoder à ne générer que des tokens valides selon le schema (token-level constrained decoding). C’est le plus sûr techniquement.
Bonnes pratiques
- Schemas précis :
enumpour les valeurs limitées,format: "date"pour ISO 8601, descriptions claires. - Required obligatoire : toujours marquer les champs requis. Réduit les nullables à gérer côté code.
- Validation supplémentaire : même avec strict mode, valider en Pydantic / Zod avant utilisation business.
- Fallback parsing : si le strict mode n’est pas dispo, parser via JSON5 (plus tolérant) puis re-valider.
- Examples in prompt : ajouter 1-2 exemples de sortie attendue dans le prompt améliore la fiabilité.
Pour PME
Tout pipeline d’extraction (factures, CV, devis, emails) en production DOIT utiliser structured output. C’est ce qui transforme “un LLM qui lit des documents” en “un système d’extraction fiable à 95-99 %”.
Pour aller plus loin
- Function calling — définition — mécanisme parent.
- Tool use — définition — terme synonyme.
- LLM — définition — fonctionnement général.
- Audit IA Kezify — concevoir vos pipelines d’extraction.
Vous voulez extraire des données structurées de documents ? Audit IA Kezify.