Conseil RH / recrutement tech

Cas client — automatisation recrutement chez un cabinet RH Lyon (+35 % capacité, ROI mois 5)

Comment nous avons augmenté de 35 % la capacité de traitement d'un cabinet de recrutement tech lyonnais en 10 semaines, en restant conforme AI Act et RGPD avec décision humaine garantie.

Client
Cabinet de recrutement tech lyonnais (8 consultants, profils mid-senior)
Durée
10 semaines

Le contexte

Un cabinet de recrutement lyonnais spécialisé sur les profils tech mid à senior (data, software, DevOps, product) — 8 consultants, ~2,8 M€ de CA, fondé en 2017 — nous contacte en février 2026. Le marché tech français se tend, les volumes de candidatures explosent, et l’équipe ne suit plus.

La directrice associée pose le problème : “On reçoit 200 à 400 CV par offre. 90 % ne correspondent pas, mais on doit quand même les regarder pour ne pas passer à côté du candidat atypique. Nos consultants passent 60 % de leur temps sur du tri, alors qu’ils devraient être en entretien ou au téléphone avec nos clients.”

Le cabinet est mature sur les outils mais les outils ne se parlent pas : ATS Bullhorn, sourcing LinkedIn, diffusion Welcome to the Jungle, mailing Lemlist. Triple saisie sur chaque candidat suivi.

Budget approuvé : 40 000 € HT max. Délai : avant juin 2026.

L’audit : 3 frictions identifiées

En 1,5 semaine d’audit (4 200 € HT, déduits du projet final), on a cartographié :

1. Le pré-tri CV est manuel et inégal

Chaque consultant a sa propre méthode : certains lisent en diagonale, d’autres scannent les mots-clés, d’autres ouvrent tous les CV. Aucune cohérence entre consultants sur les critères réels d’écartage. Résultat : sur un même type de poste, le taux de “candidat retenu sur 100 CV vus” varie de 8 % à 22 % selon le consultant. Impossible d’industrialiser.

2. La rédaction des offres prend 2 à 4h

Brief client par téléphone (45 min), puis rédaction de l’offre Welcome to the Jungle / LinkedIn / site cabinet, en gardant un ton attractif et des critères précis. 2-4h selon la complexité du poste. Sur 80 missions/an, c’est ~250h de travail consultant.

3. Suivi candidat fragmenté entre 3 outils

Bullhorn pour la fiche candidat. LinkedIn pour les messages directs. Mail/Lemlist pour les séquences. Quand un consultant veut savoir où en est un candidat, il doit ouvrir 3 outils. Perte estimée : 30 min/jour/consultant = 4h/jour total équipe.

La solution déployée

Phase 2 (8 semaines de dev sur 10 semaines totales) : agent IA d’aide au consultant avec une règle absolue posée dès le kickoff — l’agent ne décide jamais à la place du consultant. AI Act haut risque évité par construction.

Architecture

  • Modèle LLM : Claude 4.6 Sonnet via API Anthropic directe, DPA signé, région EU obligatoire. Choix imposé par la qualité de raisonnement nécessaire pour évaluer une candidature dans la nuance (ce qu’un score numérique ne sait pas faire).
  • Pré-tri scoring transparent : chaque CV reçoit un score 0-100 avec les 3-5 raisons explicites du score (compétence X présente, expérience Y absente, secteur Z aligné). Pas de boîte noire — le consultant voit pourquoi.
  • Génération offre depuis brief : à partir d’un brief client structuré (10 questions saisies par le consultant après le RDV client), l’agent génère un draft d’offre en 3 versions (Welcome to the Jungle, LinkedIn, mail direct candidat). Le consultant édite et publie.
  • Mémo profil pré-entretien : avant chaque entretien, l’agent produit une fiche 1 page : parcours résumé, points forts/faibles vs offre, 5 questions à poser, 3 alertes (gaps inexpliqués, incohérences dates, motifs récurrents de départ).
  • Reporting consultant temps réel : tableau de bord agrégeant Bullhorn + LinkedIn + Lemlist en une seule vue par mission. Mise à jour toutes les 15 min.

Architecture technique

  • Agent custom Python 3.12 + Anthropic SDK
  • Connecteurs Bullhorn (API REST officielle), LinkedIn (Sales Navigator + RSC), Welcome to the Jungle (API publique), Lemlist (webhooks)
  • Postgres pour persistance + Redis pour cache scores
  • Interface web custom (consultants n’ont pas accepté d’extension Bullhorn — trop intrusive)

Validation 4 semaines avant mise en production complète

Pendant 4 semaines, le système tournait en parallèle du process humain. Comparaison à l’aveugle sur 12 missions :

  • 1 240 CV scorés par l’agent vs scorés par les consultants à la main
  • Écart moyen entre les 2 scores : 11 points sur 100
  • Sur les “Top 20” candidats par mission : 17/20 communs en moyenne (85 % overlap)
  • Sur les 3 “Top 20” candidats où l’agent et le consultant divergeaient, l’agent avait raison 2 fois sur 3 (raisons : skills cachés dans des projets perso, expérience sectorielle dans un poste précédent que le consultant avait sous-évalué)

Validation acceptée par les consultants — l’agent est un bon assistant, pas un remplaçant.

Les chiffres avant / après

Mesurés sur 6 mois de production (mai-octobre 2026) versus baseline octobre 2025-avril 2026 :

MétriqueAvantAprèsDelta
CV traités par consultant / semaine145196+35 %
Temps consultant par CV (lecture + scoring)4 min1 min-75 %
Temps de rédaction offre (par mission)3h1h-67 %
Délai moyen brief client → offre publiée4 jours1,5 jour-62 %
Taux de placement (candidat envoyé / mission)38 %38 %stable
Satisfaction consultants (enquête interne /5)3,44,6+1,2 point

Le taux de placement n’a pas bougé. Volontaire : la valeur ajoutée du cabinet, c’est l’humain en face du candidat. L’IA libère du temps pour cette partie-là.

AI Act et RGPD — comment on est restés en zone basse

Le sujet a été traité au kickoff, pas en fin de projet :

Critères de scoring définis par les RH, pas par le modèle

Pour chaque type de poste, les consultants définissent les 8-12 critères pertinents (compétences techniques, années d’expérience, soft skills, secteur). L’agent score uniquement contre ces critères explicites. Aucun apprentissage automatique sur les décisions passées du cabinet — pour éviter de reproduire des biais historiques (genre, âge, école).

Aucun entraînement sur l’historique cabinet

Décision claire dès le départ : pas de fine-tuning sur les placements passés. Le risque de discrimination indirecte est trop élevé (par exemple, si historiquement le cabinet a placé majoritairement des candidats issus de certaines écoles, un modèle entraîné dessus reproduirait ce pattern). On utilise Claude en zero-shot avec les critères explicites du brief.

Traçabilité scoring + audit log

Chaque scoring d’un CV est loggé : input (CV anonymisé pour le log), critères appliqués, score final, raisons. Audit log conservé 24 mois, exportable sur demande candidat (droit RGPD à l’explication).

Droit à décision humaine garanti

Mention explicite dans la politique de confidentialité du cabinet, communiquée aux candidats via les offres : “Votre candidature est analysée par un outil d’aide à la décision, mais toute décision (retenu/non retenu) est prise par un consultant humain.” Aucun candidat n’est rejeté automatiquement sur la base du score.

Conformité AI Act

Avec ces 4 garde-fous, l’usage tombe en risque limité (pas haut risque), seules obligations applicables : transparence (faite) + traçabilité (faite). Validé avec le DPO du cabinet et un avocat spécialisé externe (avis écrit en annexe du contrat).

Ce qui a été difficile

Le score parfait n’existe pas

Premiers tests, on visait 95 % d’overlap entre score IA et score humain. Inatteignable et pas pertinent : un consultant senior a une intuition que l’agent n’aura pas. On a recadré l’objectif sur 80-85 % d’overlap avec explicabilité totale, ce qui est suffisant pour libérer du temps sans dégrader la qualité.

Les CV en PDF mal formattés

Environ 18 % des CV reçus sont des PDF scannés ou des PDF avec mise en page complexe (colonnes, images, infographies). L’extraction de texte standard donne du bruit. On a ajouté une étape OCR + structuration LLM (Claude Haiku, économie x10 sur ce step). Coût : +0,03 € par CV traité, gain en précision : significatif.

La résistance à l’idée de “scoring”

3 consultants sur 8 ont refusé l’idée d’un score numérique au début (“on n’évalue pas un humain comme un produit”). On a renommé l’interface : pas de “score 87/100” mais “Adéquation forte / moyenne / faible — 5 raisons”. Le fond est identique, la formulation est acceptée. Détail qui a tout débloqué.

Le ROI

  • Coût projet : 38 000 € HT (audit 4 200 € inclus, sous le budget de 40 000 €)
  • Coût d’exploitation : 950 €/mois (Claude Sonnet + Haiku + hébergement + maintenance), soit 11,4 k€/an
  • Économie annuelle : capacité +35 % sur 8 consultants = équivalent ~2,8 ETP libérés × 60 k€ chargés = 168 k€/an de capacité supplémentaire (revente en chiffre d’affaires additionnel ou évitement d’embauche)
  • ROI atteint : mois 5 (38 k€ projet remboursés à hauteur de ~13 k€/mois d’économie nette après coût d’exploitation)

L’effet non chiffré : capacité à accepter 18 missions supplémentaires sur le S2 2026 (vs S2 2025), ce qui aurait été refusé faute de bande passante consultant.

Ce que dit le client 5 mois après

“Le piège qu’on voulait éviter c’était de transformer notre cabinet en une chaîne de tri automatique. Nos clients nous payent pour notre œil humain. Ce qu’on a obtenu c’est l’inverse : on a plus de temps pour cet œil humain parce que la partie mécanique est faite. Aucun consultant n’est revenu sur sa décision après essai.” — Directrice associée.

Prochaine étape chez ce client

Phase 3 (en discussion 2026-Q4) : génération automatique de comptes-rendus d’entretien depuis les notes voix du consultant, avec extraction structurée des points clés pour le compte-rendu client. Budget estimé 22 000 €.

Pour votre cabinet de recrutement

Si vous reconnaissez ce contexte (5+ consultants, volumes 100+ CV par offre, outils silotés), les chiffres ci-dessus sont reproductibles chez vous. Voir notre page secteur Recrutement et RH pour les autres cas d’usage. Pour qualifier votre cas en 30 minutes — et discuter des contraintes AI Act spécifiques à votre activité — écrivez-nous.

Pour aller plus loin