Selon une étude du MIT, 95 % des projets d’intelligence artificielle n’atteignent pas leurs objectifs. Pourquoi ? Et comment éviter les écueils les plus fréquents ? Julien Laugel, Directeur général d’ekino, partage son regard sur les conditions de réussite des projets IA à l’heure de la vague générative.
SNC : Les chiffres du MIT sont impressionnants : 95 % des projets IA échouent. Vous partagez ce constat ?
Julien Laugel : Oui, clairement. Beaucoup de projets n’arrivent pas à franchir le cap entre la preuve de concept et l’industrialisation, ou du moins le produit minimum viable. Cela crée de la frustration : même une POC représente un investissement. L’enjeu, c’est d’augmenter le taux de transformation et de capter la valeur.
Quelles sont, selon vous, les causes principales d’échec ?
J. L. : Je vois quatre grands facteurs.
- La donnée. Malgré les progrès, on reste soumis à la règle du garbage in, garbage out. Si les données sont de mauvaise qualité, mal gouvernées ou mal contextualisées, l’IA ne peut pas produire de bons résultats.
- L’acceptabilité. Un outil ne fonctionne que si les utilisateurs y adhèrent. Si l’algorithme n’est pas explicable, la confiance s’effrite. Il faut parfois préférer un modèle un peu moins performant mais plus transparent. Et il faut aussi gérer la peur du remplacement, rarement abordée dans les entreprises.
- La relation homme-machine. Dans les projets complexes, il faut clarifier les rôles : ce que fait l’algorithme et ce que fait l’humain. Quand les périmètres se chevauchent, tout dysfonctionne.
- La mauvaise spécification du problème. Les entreprises identifient souvent des cas d’usage trop vagues ou mal cadrés. Résultat : on met une pression démesurée sur l’IA. Des méthodes comme les “5 pourquoi” aident à remonter à la source du besoin réel.
« On confond trop souvent automatisation et augmentation »
Pouvez-vous illustrer cette idée sur les usages génératifs, par exemple dans le service client ?
J. L. : Un réflexe courant consiste à vouloir automatiser complètement les petites tâches. Or, l’autonomie totale est encore difficile à cause des hallucinations ou du raisonnement limité des modèles. On crée souvent plus de valeur en utilisant l’IA pour assister les collaborateurs sur 100 % des cas — par exemple en récupérant les bonnes informations ou en préparant les réponses — plutôt qu’en cherchant à automatiser 5 % des demandes simples.
Quels signaux permettent d’anticiper la réussite d’un projet IA ?
J. L. : J’en vois plusieurs :
- La qualité et la disponibilité des données.
- L’implication des métiers : ils doivent consacrer du temps à partager leurs pratiques et contraintes.
- Une approche itérative : ne pas surestimer ce qu’on peut faire en une fois, ni sous-estimer ce qu’on obtient sur plusieurs cycles.
- Enfin, la rigueur d’ingénierie : entre POC et produit, il faut industrialiser la mesure de performance, automatiser les tests et mettre en place des contrôles (guardrails) sur la légitimité des questions, la cohérence des réponses, les sources, etc.
C’est de l’ingénierie à part entière, bien au-delà d’un prototype de trois prompts et d’une base statique. On a connu la même évolution avec le « ML engineering » ; on a besoin maintenant du « LLM engineering ».
Comment intégrer sécurité et conformité dans les projets ?
J. L. : La gouvernance de l’IA est cruciale. Les entreprises qui ont déjà une gouvernance de la donnée partent avec un avantage. Il faut d’abord avoir une vision claire du portefeuille de projets IA, puis maîtriser les données utilisées et leur légitimité d’usage.
Côté sécurité, le vrai défi vient des LLM connectés aux systèmes métiers (CRM, ERP, etc.) via des serveurs ou outils appelés MCP servers. Ils donnent de la puissance aux agents, mais posent des questions de traçabilité et d’authentification. Beaucoup de connecteurs ne gèrent pas encore correctement des protocoles comme OAuth 2, ce qui freine l’adoption.
Les critères environnementaux ou éthiques font-ils partie de la réussite d’un projet ?
J. L. : Sur la sobriété, oui, même si c’est encore émergent. Entre un petit modèle et un très gros, il peut y avoir un facteur 100 sur le coût ou la consommation par token. À terme, on utilisera des modèles plus petits (SLM), spécialisés sur des tâches, moins coûteux et plus sobres.
Côté responsabilité, les enjeux de biais et de transparence ne datent pas de la générative. On a déjà beaucoup appris des modèles de machine learning. Les entreprises sont aujourd’hui plus attentives à la traçabilité des données d’entraînement et aux effets potentiellement néfastes.
Voyez-vous une évolution dans la façon dont les entreprises abordent leurs projets IA ?
J. L. : Oui, le niveau de maturité progresse vite. Les entreprises ont pris conscience du potentiel, mais aussi de la nécessité de prouver le ROI. Les cas d’usage deviennent plus spécifiques et verticalisés. Il y a un an, les POC tournaient surtout autour de “RAG” (agents conversationnels sur bases internes). Aujourd’hui, les projets sont plus ciblés.
Parallèlement, tous les éditeurs logiciels intègrent désormais de l’IA, ce qui soulève une question pour les DSI : faut-il acheter chaque brique IA auprès des éditeurs, ou développer ses propres capacités capables d’orchestrer ces systèmes via des connecteurs ?
« Travailler la donnée, l’humain et la clarté du besoin »
Pour conclure, quels sont selon vous les trois leviers clés de réussite ?
- Bien spécifier le problème et le périmètre où l’IA apporte de la valeur.
- Être obsédé par la donnée : qualité, accessibilité, gouvernance.
- Travailler l’acceptabilité en amont : explicabilité, rôles clairs homme-machine, adhésion des utilisateurs.
Si ces trois points ne sont pas réunis, même la meilleure technologie ne suffira pas.








