✓ Ce qui est livré
- Architecture documentée de la solution (techno, flux, sécurité)
- Code source livré, déployé sur votre infra ou sur nos stacks partenaires (AWS/GCP/OVH/Scaleway)
- Connecteurs vers vos systèmes internes (MCP ou API)
- Interface utilisateur finie (web, Slack, email, Claude Desktop)
- Jeu de tests et benchmarks sur vos données réelles
- Formation des 3-5 utilisateurs pilotes (4 h)
- Documentation technique et runbook d'exploitation
- 1 mois de support post-livraison inclus
Quand ce service est fait pour vous
Vous avez validé un cas d’usage IA (par audit ou par intuition forte) et vous voulez que le projet existe en production. Pas un POC qui dormira sur un laptop, mais un outil utilisé au quotidien par vos équipes.
Cas typiques que nous implémentons :
- Agent RAG sur votre documentation interne — “notre support sait tout ce qu’on a produit depuis 10 ans”
- Triage et pré-rédaction de tickets — helpdesk, SAV, admissions
- Générateur de livrables — propales, contrats, comptes-rendus
- Analyseur de documents — contrats, factures, appels d’offres
- Assistant métier — commerce, juridique, RH, support
Notre méthode en 4 phases
Phase 1 — Cadrage technique (1-2 semaines)
Nous reprenons votre audit (ou nous en faisons un court si vous n’en avez pas) et produisons :
- Un spec technique : architecture, composants, technos, hébergement.
- Les contrats de données : quelles données entrent, quelles sortent, où elles vivent.
- Un jeu de critères de succès : 3-5 KPIs mesurables.
- Un planning détaillé par sprint de 2 semaines.
Phase 2 — Développement itératif (4-10 semaines)
Nous livrons toutes les 2 semaines sur votre environnement de preview. Vous testez, donnez du feedback, ajustement en sprint suivant.
Stack technique choisie selon votre contexte :
- Modèle LLM : Claude 4/5 (default) / GPT / Mistral / Llama selon coût/perf/conformité.
- Hébergement : API directe (Anthropic/OpenAI/Mistral) ou LLM privé (AWS Bedrock, Azure OpenAI, Scaleway, OVH) selon vos contraintes.
- Base vectorielle : Supabase pgvector / Qdrant / Pinecone selon volume.
- Orchestration : n8n / Temporal / code custom selon complexité.
- Observabilité : Langfuse / Plausible / logs structurés.
Nous privilégions toujours les technos que vos équipes peuvent reprendre sans dépendance à un outil propriétaire rare.
Phase 3 — Évaluation et durcissement (2-3 semaines)
Phase souvent négligée, critique chez nous :
- Benchmark sur 100-500 cas réels de vos données.
- Taux d’hallucination mesuré, analysé, corrigé.
- Tests de stress (volume, concurrence, latence).
- Tests d’attaque (prompt injection, data exfiltration tentatives).
- Validation RGPD / conformité si applicable.
Phase 4 — Déploiement et transfert (1-2 semaines)
- Mise en production avec bascule progressive (10 % → 50 % → 100 % du trafic).
- Formation utilisateurs pilotes (session 4 h).
- Documentation technique livrée à votre équipe.
- Runbook opérationnel (comment savoir que ça va bien, comment réagir si ça casse).
- Transfert d’ownership si vous avez une équipe interne.
Le budget expliqué
| Profil de projet | Fourchette | Durée typique |
|---|---|---|
| Simple (1 cas d’usage, 1 source de données, stack standard) | 25 000 - 40 000 € | 8-10 semaines |
| Intermédiaire (2-3 sources de données, intégrations multiples, interface custom) | 40 000 - 55 000 € | 10-14 semaines |
| Complexe (conformité, multi-tenancy, volumes élevés, intégrations legacy) | 55 000 - 70 000 € | 14-18 semaines |
Au-dessus de 70 k€, le projet doit être découpé en deux livraisons successives. Au-dessous de 25 k€, c’est un POC, pas une production — on le nomme comme tel et on adapte le livrable.
Ce qui est inclus dans le prix
- Toutes les prestations de développement par consultant senior (pas de junior facturé au prix du senior)
- L’infrastructure de développement (notre environnement cloud)
- Les accès aux modèles LLM pendant le dev
- Les licences des outils tierces nécessaires au dev
- 1 mois de support post-livraison (bugs, ajustements, questions)
Ce qui n’est PAS inclus
- Les coûts d’API LLM en production (à votre charge, typiquement 40 € à 400 € / mois selon volume)
- L’infrastructure d’hébergement prod (si on héberge chez vous, c’est gratuit ; sur notre infra, 100-400 €/mois)
- L’évolution fonctionnelle après la livraison (maintenance forfait possible, voir Support & Maintenance)
Garanties
- Engagement de livraison : si à 60 % du budget nous n’avons pas livré un produit utilisable, nous finissons à nos frais ou remboursons au prorata.
- Code source à vous : tout le code livré vous appartient. Pas de vendor lock-in.
- Documentation complète : votre équipe ou un autre intégrateur peut reprendre le projet.
Démarrer
Un premier appel de 30 minutes gratuit pour qualifier votre besoin. Si ça fait sens, nous signons un NDA et démarrons le cadrage formel dans les 2 semaines.
Pour aller plus loin
- Claude vs GPT vs Mistral pour une PME française — lequel choisir en 20… — Comparaison technique et économique des 3 principaux LLM pour une
- Prompt engineering pour entreprise en 2026 — la méthode qui marche vra… — Au-delà du ‘soyez précis’
- Quand changer de stack LLM en 2026 — les 5 signaux qui justifient une… — Migrer d’OpenAI vers Anthropic, ou de l’API directe vers Bedrock
- Cas client — générateur de propales pour un cabinet de conseil (15 con… — Comment nous avons réduit le temps de production d’une proposition
- Cas client — rédaction de conclusions chez un cabinet d’avocats Paris… — Comment nous avons réduit de 55 % le temps de
- ChatGPT Team vs Claude Team vs Mistral Le Chat Pro — quelle souscripti… — Comparatif des 3 souscriptions IA équipe leaders en 2026