Mise en œuvre

Pourquoi 80 % des projets IA échouent en PME (et comment éviter ça)

Gartner, MIT, BCG : les stats de l'échec des projets IA convergent autour de 70-85 %. Voici les 5 causes racines qu'on voit chez nos clients, et la checklist à cocher avant de lancer.

Selon Gartner (2024), 85 % des projets IA n’arrivent jamais en production. MIT Sloan parle de 78 %. BCG sort un rapport fin 2025 qui monte à 74 %. Les chiffres bougent selon les définitions, mais la convergence est claire : 3 projets IA sur 4 ne produisent jamais la valeur annoncée.

Sur les 60 projets qu’on a audités chez Kezify depuis 2024, 43 étaient déjà des “projets IA” en souffrance chez nos clients avant qu’on arrive. Les causes se répètent. Voici les 5 qu’on voit à chaque fois, avec la checklist qui évite 80 % des dérives.

Cause 1 — Le projet démarre sans sponsor métier réel (44 % des échecs)

Signe qui ne trompe pas : le projet est porté par la DSI, le sponsor est “le COMEX en général”, et personne du métier concerné n’a mis 2 jours de son agenda dans le cadrage.

Résultat concret : au bout de 3 mois, la techno marche, mais les utilisateurs ne l’utilisent pas parce que personne n’a pensé à changer leurs process. Le projet est déclaré réussi techniquement, puis oublié en 6 mois.

Contre-mesure : avant de signer, vous devez pouvoir nommer :

  • Le sponsor métier (pas la DSI).
  • Les 3-5 utilisateurs quotidiens testeurs (avec leurs agendas bloqués).
  • La personne qui va piloter le changement côté équipe.

Si l’une des 3 cases est vide, le projet est déjà mort. Reporter de 6 semaines pour trouver les bonnes personnes coûte moins cher qu’un projet à jeter.

Cause 2 — Les données ne sont pas prêtes (22 %)

“On a toutes les données dont on a besoin” est une phrase qu’on entend à chaque pré-vente. Puis on ouvre les CSV, et on trouve :

  • 30 % de champs remplis à moitié.
  • 4 sources de vérité pour la même entité client.
  • Des formats de dates qui changent selon les années.
  • Des règles métier implicites qui vivent dans la tête d’un seul manager.

Un modèle IA amplifie la qualité ou la non-qualité des données d’entrée. Garbage in, garbage out, mais à l’échelle.

Contre-mesure : avant le POC, faire un audit de données de 3-5 jours sur les 200-500 premiers cas réels. Si le taux de cas “propres” est inférieur à 70 %, il faut nettoyer avant de lancer le projet IA, pas pendant.

Cause 3 — Zéro plan de mesure (17 %)

Un projet IA sans KPI prédéfinis ne peut pas réussir, parce qu’il ne peut pas être jugé. Au bout de 6 mois, tout le monde débat : “ça marche ?”, “ça marche mieux ?”, “par rapport à quoi ?”. Personne ne sait. Le projet meurt de lassitude.

Ce qu’il faut mesurer, pour tous les projets IA sans exception :

KPIComment le capterSeuil de réussite typique
Taux de réussite tâcheSampling manuel 100 cas / semaine> 85 % en production
Temps gagné par utilisateurTime tracking avant / après> 20 % de gain
Taux d’adoptionUtilisateurs actifs / utilisateurs cible> 60 % à J+60
Coût LLM par tâcheMonitoring provider (Helicone, Langfuse)< budget prévu
Taux d’escalade humaineCompteur dans l’outil< 15 % après calibration

Contre-mesure : définir ces 5 KPI avant la signature. Mesurer la baseline avant déploiement. Réviser hebdomadaire pendant les 3 premiers mois.

Cause 4 — L’outillage LLM devient un patchwork (11 %)

Projets qui démarrent avec 3 clés API différentes, 4 providers, aucune observabilité, pas de garde-fous, pas de versioning de prompts. Au bout de 8 mois, plus personne ne sait quel modèle est utilisé où, combien ça coûte, ni comment le fixer quand ça dérape.

Contre-mesure : dès la phase POC, poser 3 briques :

  1. Un routeur LLM (LiteLLM, OpenRouter ou équivalent) pour abstraire le modèle.
  2. Une couche d’observabilité (Langfuse, Helicone, LangSmith) pour les traces.
  3. Un versioning de prompts (simple fichier versionné git suffit au début).

Budget additionnel : 3-5 jours-homme. Économie : les 20-40 % de dérive qu’on a toujours sinon.

Cause 5 — Les hallucinations n’ont pas été pensées (6 %)

Pour 6 % des projets morts, la cause est claire : une hallucination en production a cassé la confiance. Un chatbot qui invente un numéro de commande. Un agent qui donne une info juridique fausse. Un assistant commercial qui promet une remise impossible.

La confiance se perd en 1 incident et se regagne en 6 mois. Parfois jamais.

Contre-mesure : chaque projet doit avoir, dès le cadrage, une stratégie anti-hallucination formalisée :

  • Périmètre strict des réponses autorisées.
  • Ancrage systématique sur les données internes (RAG, MCP).
  • Garde-fous output (validation de format, de source, de cohérence).
  • Fallback humain visible pour les cas hors périmètre.

Les projets qui ont cette stratégie dès le jour 1 ne hallucinent quasiment jamais en production. Ceux qui la rajoutent après le premier incident paient 3 fois le prix.

La checklist en 10 points avant de lancer

À cocher avant la signature :

  • Sponsor métier nommé (pas DSI), 2 jours de son agenda réservés sur le cadrage.
  • 3-5 utilisateurs quotidiens identifiés avec agendas bloqués pour tests.
  • Cas d’usage précis avec 1 phrase de succès quantifiable.
  • 5 KPI mesurables définis + baseline captée avant démarrage.
  • Audit de données fait, taux de cas propres > 70 %.
  • Budget évaluation + garde-fous chiffré séparément (10-15 % du projet).
  • Fournisseur LLM choisi avec DPA signé + région EU validée.
  • Plan anti-hallucination formalisé dans le contrat.
  • Session de kickoff avec les utilisateurs (pas juste le sponsor).
  • Revue hebdo planifiée sur les 3 premiers mois.

Sur les projets qui cochent 9-10 cases, taux d’échec chez Kezify : < 8 %. Sur ceux qui cochent 5-6 cases : ~45 %.

Les cas où on refuse le projet

On dit non et on explique pourquoi dans ces situations :

  • Le client veut un chatbot “comme ChatGPT” sans cas d’usage précis.
  • Le sponsor est uniquement DSI, sans relais métier.
  • Le budget annoncé est inférieur à 15 k€ (en PME, c’est le seuil en-dessous duquel personne ne peut livrer sérieusement).
  • L’échéance est “avant la fin du trimestre” alors qu’on est au milieu du trimestre.
  • Le client refuse l’audit de 2 semaines en amont.

Refuser un mauvais projet économise 6 mois de frustration mutuelle. Les clients reviennent 9 fois sur 10 quand ils sont prêts.

Ce qu’on vous propose si vous doutez

Si vous avez un projet IA qui patine ou si vous hésitez à lancer, 30 minutes au téléphone pour regarder ensemble la checklist. On vous dit lesquelles manquent, et dans quel ordre les combler. Sans engagement.

Pour aller plus loin

← Retour au blog
#échec projet#cadrage#PME#stratégie IA