Le contexte
Un éditeur SaaS B2B français (50 collaborateurs, ~6 M€ ARR, ICP : ETI/grands comptes) nous contacte en février 2026. Leur funnel marketing capte ~800 leads par mois (formulaire site + webinaires + livres blancs + LinkedIn ads). Sur ces 800, environ 80 sont qualifiés “MQL” par les SDR. La directrice marketing remonte la friction : “Nos 4 SDR passent 60 % de leur temps à filtrer les 720 leads non qualifiés avant de pouvoir traiter les 80 qui valent la peine. On perd des MQL chauds dans la masse — par exemple, quand un Directeur Achat d’un grand groupe demande une démo le vendredi à 18h, on ne le voit que le lundi à 11h. Trop tard.”
Objectif : automatiser le scoring et la pré-qualification, libérer les SDR pour la vraie discovery.
Les 4 frictions trouvées en audit
L’audit (4 800 € HT, déduit du projet, 5 jours-homme sur 1 semaine) a identifié :
1. Le scoring HubSpot est rule-based et obsolète
Les règles ont été créées en 2022 (taille entreprise, secteur, fonction, etc.). Mais leur ICP a évolué (de PME vers ETI), et les règles n’ont pas suivi. Conséquence : 30 % des “MQL” qualifiés par règle étaient en fait hors ICP, et 20 % de “leads froids” étaient en fait dans l’ICP cible mais pas détectés.
2. Le formulaire ne pose pas les bonnes questions
5 champs obligatoires (nom, email, entreprise, fonction, message). Aucune question sur le contexte d’achat (taille équipe, outils en place, urgence, budget). Les SDR doivent tout (re)demander en 1er appel — friction massive.
3. La donnée d’enrichissement n’est pas exploitée
Ils paient un abonnement Lusha + un Apollo + un Cognism (enrichissement B2B). 3 sources concurrentes, taux d’erreur ~15 %, et aucune intégration automatique vers le CRM : les SDR copient-collent.
4. Les signaux faibles sont ignorés
Un lead qui ouvre 5 emails dans la même semaine + visite 12 pages produit + télécharge 2 livres blancs = signal très fort. Aucune détection automatique de ce type de pattern.
La solution déployée
Phase 2 (5 semaines) : un agent de qualification de leads intégré dans HubSpot qui scorre, enrichit, et préqualifie chaque nouveau lead en moins de 5 minutes.
Architecture
-
Webhook HubSpot : chaque nouveau lead déclenche un appel à notre backend.
-
Enrichissement multi-sources : appel parallèle à Lusha, Apollo, Cognism + scraping LinkedIn (avec consentement RGPD) pour récupérer la donnée firmographique et personnographique.
-
Agent Claude 4.5 Haiku : reçoit le lead enrichi + l’historique des comportements (pages visitées, emails ouverts, contenus téléchargés) + le contexte ICP du client (un document de 4 pages décrivant leurs personas cibles). Sortie : score 0-100 + raison + segment ICP suggéré + suggestion d’action SDR.
-
Agent Claude 4.6 Sonnet pour les borderlines : si le score est entre 55 et 75 (zone d’incertitude), un agent plus puissant fait une 2e passe avec accès à des outils supplémentaires (recherche web pour vérifier les funded rounds récents, etc.).
-
Routage automatique : score > 75 → SDR senior + alerte Slack temps réel + email pré-rédigé prêt à envoyer. Score 55-75 → SDR junior + email automatique de qualification supplémentaire. Score < 55 → nurturing automatique + ré-évaluation J+30.
-
Dashboard de pilotage : la direction marketing voit en temps réel le funnel, les conversions par segment, les SDR overflow, les alertes d’anomalies.
Stack technique
- Modèles : Claude 4.5 Haiku (90 % du trafic) + Claude 4.6 Sonnet (10 %, zone d’incertitude).
- Backend : FastAPI déployé sur leur infra Scaleway, intégration native HubSpot via webhooks et CRM API.
- Enrichissement : Lusha + Apollo + Cognism via leurs APIs respectives, dédoublonnage maison.
- Observabilité : Langfuse + Mixpanel + dashboards HubSpot custom.
- Conformité : DPIA validée par leur DPO (lead = donnée personnelle), opt-out documenté, mentions légales formulaire mises à jour.
Les chiffres avant / après
Mesurés sur 8 semaines en production (mars-avril 2026), versus baseline T4 2025 :
| Métrique | Avant | Après | Delta |
|---|---|---|---|
| Leads qualifiés (MQL) / mois | 80 | 110 | +38 % |
| Précision MQL (% qui deviennent SQL) | 35 % | 62 % | +77 % |
| Délai moyen entre lead et 1er contact SDR | 32h | 4h | -87 % |
| Temps SDR / lead non qualifié | 22 min | 0 min (auto) | -100 % |
| Pipeline généré / mois | 480 k€ | 760 k€ | +58 % |
| Coût LLM / lead traité | — | 0,06 € | nouveau |
Le bond du pipeline (+58 %) vient surtout de la combinaison de +38 % de MQL et de +77 % de précision : on remplit le pipeline avec des leads vraiment chauds, pas du volume creux.
Ce qui a été difficile
Le ground truth pour le scoring
Pour entraîner Claude à scorer “comme leur meilleur SDR”, on a constitué un dataset de 250 leads passés avec leur outcome réel (deal won, lost, no-show, etc.). 4 jours d’annotation manuelle par un SDR senior. Sans ce dataset, le scoring aurait été du bullshit. C’est l’investissement caché qui fait toute la différence entre un POC et un système qui marche.
L’opt-out RGPD
Comme on enrichit les leads avec des données externes (Lusha, etc.), on a dû reformuler les CGU et le formulaire pour rendre l’opt-out explicite. 2 semaines avec leur DPO et leur juriste — coût zéro mais latence projet importante. Anticiper ce point dès l’audit dans tous les futurs projets similaires.
Les SDR juniors face à l’agent
2 SDR juniors sur 4 ont d’abord vu l’outil comme une remise en cause de leur jugement. Solution : positionnement explicite que l’agent fait la pré-qualification (= leur tâche pénible), pas la qualification finale (= leur valeur ajoutée). Après 4 semaines : 4/4 SDR utilisent l’agent quotidiennement, et 2/4 ont demandé à participer à l’amélioration des prompts.
Le ROI
- Coût projet : 24 000 € HT (audit + dev + intégrations + 1 mois support)
- Coût d’exploitation LLM : 380 €/mois (Haiku majoritaire + Sonnet sur 10 %)
- Coût enrichissement : 1 200 €/mois (déjà payé avant, optimisé)
- Gain pipeline : +280 k€ / mois, soit 3,4 M€/an de pipeline supplémentaire. Avec un win rate moyen de ~32 %, ça représente un potentiel ARR additionnel de ~1,1 M€/an.
- Capacité SDR libérée : 4 SDR × 60 % de temps × 22 min/lead évité = ~88 heures/mois redéployées sur la discovery → ~12-15 deals supplémentaires / an estimés.
- ROI atteint : mois 3
Ce que dit le client 3 mois après
“On a investi 24 k€ sur un projet qui devait nous faire gagner 30-50 % de productivité SDR. Le résultat sur le pipeline a dépassé tout ce qu’on espérait — on a doublé notre capacité de generation MQL en 7 semaines. Le truc qu’on n’avait pas anticipé : nos meilleurs SDR sont devenus encore meilleurs, parce qu’ils ne perdent plus 13 heures par semaine sur des leads froids.” — Directrice marketing.
Prochaine étape chez ce client
Phase 3 (en cadrage juin 2026) : agent de prise de RDV automatique (côté SDR) qui prend les appels entrants, qualifie en discovery légère, et pose des RDV calendrier directement avec les Account Executives. Budget estimé 32 000 €, ROI attendu sur réduction du temps SDR-to-AE.
TODO Hugo
- Anonymisation OK direction marketing
- Demander 1 vidéo témoignage 30 sec courte
- Vérifier les chiffres exact pipeline T2 2026
Pour vous ?
Si vous générez 200+ leads / mois avec une équipe SDR < 6 personnes et un funnel B2B saturé, le pattern est transposable. Conditions clés : un CRM bien tenu (HubSpot, Salesforce, Pipedrive), des données d’enrichissement déjà payées, et un sponsor marketing prêt à investir 5 jours d’annotation manuelle pour le ground truth.
Pour aller plus loin
- Cas client — chatbot support SaaS B2B (40 % de tickets niveau 1 en moins) — Autre cas SaaS B2B, côté support.
- Implémentation Claude / GPT / Mistral en production — projet clé en main — Notre service d’industrialisation.
- Audit RGPD IA — conformité spécifique vos systèmes IA, 3 200 € HT — Indispensable quand vous traitez des leads (donnée personnelle).