Le contexte
Un éditeur SaaS B2B français (8 ans d’existence, ~80 collaborateurs, 1 200 clients PME / ETI) nous contacte en février 2026. Leur produit est un outil de gestion comptable utilisé par des cabinets d’expertise et des PME. Le service support traite 4 200 tickets par mois avec 6 agents — saturation croissante depuis le démarrage du SaaS sur le marché allemand en 2025.
La directrice support nous résume la situation : “On a 60 % de nos tickets qui sont des questions documentation — ‘comment je fais X’, ‘où est le menu Y’, ‘pourquoi le calcul ne tombe pas’. Nos agents passent leur journée à coller des liens vers notre Help Center. On veut un chatbot qui réponde sur la doc avant que le ticket arrive, pas après.”
Les 3 frictions trouvées en audit
L’audit (4 800 €, déduit du projet final, 8 jours-homme étalés sur 2 semaines) a révélé :
1. La documentation existe mais elle est dispersée
12 sources concurrentes : Help Center officiel (Notion), tickets Zendesk archivés, threads Slack #support-tips, FAQ blog, vidéos YouTube non transcrites, Google Docs internes. Aucune source unique de vérité, et les agents donnent souvent des réponses différentes pour la même question.
2. Le shadow IT côté support
3 agents sur 6 utilisent ChatGPT perso pour rédiger leurs réponses. Conséquence : qualité hétérogène, et données client envoyées hors RGPD (numéros SIRET, noms, parfois numéros de comptes). Découverte clé qu’on a remontée immédiatement à la direction et au DPO.
3. Pas de mesure d’auto-résolution
Le Help Center existant a des analytics (Notion built-in) mais personne ne les regardait. On a découvert que 40 % des visiteurs Help Center finissaient par ouvrir un ticket dans la même session — symptôme classique d’une doc qui ne répond pas vraiment.
La solution déployée
Phase 2 (7 semaines) : un chatbot RAG sur Claude 4.6 Sonnet intégré dans le produit (widget bottom-right) et dans le Help Center.
Architecture en 4 briques :
- Pipeline d’ingestion : 12 sources documentaires aspirées chaque nuit, normalisées en MDX, embeddées (text-embedding-3-large, OpenAI) et stockées dans pgvector sur leur Postgres existant.
- Backend Python (FastAPI) : reçoit la question utilisateur, retrieve top-8 chunks pertinents, construit le prompt avec contexte + persona + garde-fous, appelle Claude.
- Frontend widget : composant React injecté dans le produit. Capture du contexte (utilisateur connecté, page courante, plan tarifaire) pour personnaliser les réponses.
- Escalation : si confiance Claude < 0,7 ou question hors scope (commercial, juridique), proposition automatique d’ouvrir un ticket préqualifié.
Côté technique :
- Modèle principal : Claude 4.6 Sonnet (région EU via Bedrock).
- Modèle classification : Claude 4.5 Haiku pour pré-filtrer les questions hors-scope (~30 % du volume).
- Embeddings : text-embedding-3-large (OpenAI), batch nightly.
- Observabilité : Langfuse pour traces, Grafana pour métriques métier.
Les chiffres avant / après
Mesurés sur 6 semaines de production (avril 2026), versus baseline février 2026 :
| Métrique | Avant | Après | Delta |
|---|---|---|---|
| Tickets niveau 1 / mois | 4 200 | 2 520 | -40 % |
| Délai moyen de 1ère réponse | 6h | 90 sec (chatbot) | -99 % |
| Taux d’auto-résolution Help Center | 8 % | 47 % | +39 points |
| CSAT support post-ticket | 4,2 / 5 | 4,6 / 5 | +10 % |
| Volume shadow IT (ChatGPT perso) | ~3/6 agents | 0/6 | -100 % |
| Coût LLM / ticket auto-résolu | — | 0,02 € | nouveau |
Le seul indicateur qui a légèrement bougé négativement : 4 % de tickets “résolus par chatbot” se sont rouverts dans les 7 jours (vs 2 % auparavant). On a creusé : ce sont des cas où Claude a donné une réponse correcte mais incomplète. Solution : ajout d’un follow-up automatique 48 h après pour vérifier si le problème est résolu.
Ce qui a été difficile
La voix de la marque
Premiers déploiements, les réponses étaient correctes mais corporate. Les utilisateurs réguliers (cabinets d’expertise comptable, ton plutôt formel) appréciaient. Les nouveaux utilisateurs PME (ton plus relax) trouvaient ça froid. On a versionné 2 prompts système distincts selon le segment client (récupérable via leur CRM), avec ajustement du ton — différence visible dès la 1ère semaine.
Le contenu obsolète dans le RAG
3 semaines après le go-live, plusieurs réponses Claude faisaient référence à des fonctionnalités V2 qu’ils avaient sunsettées en V3. Les sources Notion étaient à jour, mais les vidéos YouTube et certains Google Docs internes ne l’étaient pas. On a ajouté un filtre date dans le pipeline d’ingestion + un job de détection des contradictions inter-sources qui alerte le content team.
L’alignement support / produit
Le directeur produit voulait que le chatbot pousse les nouvelles fonctionnalités — la directrice support refusait toute “promo” dans les réponses. Médiation : un mode “découverte” optionnel activé par l’utilisateur, qui ajoute “En lien avec votre question, vous pourriez aussi explorer X” à la fin de la réponse, jamais avant.
Le ROI
- Coût projet : 32 000 € HT (audit + dev + intégration + 1 mois support)
- Coût d’exploitation LLM : 180 €/mois (mix Sonnet + Haiku pour ~5 000 conversations / mois)
- Économie annuelle : 2 ETP libérés (réaffectés sur le support niveau 2 et la rédaction documentaire) = ~120 k€/an chargés
- ROI atteint : mois 5 (vs mois 6 prévus)
Ce que dit le client 3 mois après
“Notre objectif au départ était de tenir la croissance sans embaucher. On l’a fait, et en bonus on a mis fin à du shadow IT qu’on aurait dû voir plus tôt. Le truc qu’on n’avait pas anticipé : nos agents support se sont remis à aimer leur métier, parce qu’ils ne traitent plus ‘où est le bouton X’ mais des vrais problèmes.” — Directrice support.
Prochaine étape chez ce client
Phase 3 (en cours, juin 2026) : extension du chatbot à un agent de configuration qui aide les utilisateurs à paramétrer le SaaS la première fois (onboarding self-service). Budget prévu 22 000 €, gain attendu sur la réduction du temps moyen avant 1ère utilisation valeur (estimé -30 %).
TODO Hugo
- Confirmer les chiffres réels avec le client (anonymisés mais factuels)
- Demander l’autorisation de citer le nom du client si dispo
- Vérifier le coût LLM mensuel exact (mois 6 réel)
- Capter une vidéo témoignage 30 sec si possible
Pour vous ?
Si vous reconnaissez votre contexte (SaaS B2B 50-200 personnes, support saturé, doc dispersée), nos chiffres peuvent être atteignables chez vous. 30 minutes au téléphone pour qualifier le fit, sans engagement.
Pour aller plus loin
- Cas client — triage support pour un e-commerce mode (180k tickets/an) — Comment nous avons réduit de 62 % le temps de traitement des tickets support.
- Implémentation Claude / GPT / Mistral en production — projet clé en main — Notre service d’industrialisation IA.
- Audit RGPD IA — conformité spécifique vos systèmes IA — Pour les SaaS B2B : nos retours sur le shadow IT et les contrats LLM.