Entre attentes de gain de productivité et de transformation des métiers, l’adoption de l’intelligence artificielle reste contrastée. Malgré ses bonds technologiques, l’IA n’a pas encore atteint le degré d’innovation qui lui donnerait toute sa place au bureau mais elle se déploie progressivement dans un nombre croissant de solutions matérielles et logicielles dont il faut accompagner le déploiement en s’inspirant de bonnes pratiques.

L’intelligence artificielle, omniprésente dans les discours des éditeurs et constructeurs, s’est progressivement intégrée dans une large gamme de produits IT, parfois à juste titre, parfois de manière discutable. De nombreux experts comparent l’engouement pour l’IA à celui observé lors de l’essor du cloud. Un mélange d’enthousiasme face aux promesses de gain en productivité et de frustration quand les projets d’IA échouent à se concrétiser, malgré les nombreuses études vantant ses vertus. « Les grands cabinets d’études comme IDC et Gartner le reconnaissent, 80 % des projets d’IA échouent à passer en production. La majorité des entreprises ne dépassent pas le stade du PoC… En cause, des attentes irréalistes, des incompréhensions techniques et des processus mal calibrés. Pour beaucoup d’organisations, le point de départ d’un projet IA n’est pas un problème métier à résoudre mais une injonction stratégique : “Il faut faire de l’IA !” Cette approche inversée alimente un cycle de démonstrations technologiques sans lendemain. On veut montrer qu’on est innovant, sans forcément savoir ce qu’on cherche à résoudre. Les entreprises sont abreuvées de démonstrations séduisantes mais sans débouchés concrets car elles sont déconnectées des réalités opérationnelles. Une situation comparable à celle du cloud dans les années 2010, lorsque les entreprises tentaient des déploiements massifs sans considération pour l’existant », dépeint Nicolas Woirhaye, fondateur de Provence.ai.
Adopter une approche pragmatique pour éviter les désillusions coûteuses – le tarif d’un PoC dans l’IA atteint près de 40 000 euros – est le conseil sur lequel s’accordent tous les spécialistes. C’est une question de bon sens martèlent-ils, qui ne s’applique pas spécifiquement à l’IA mais à tout projet qui modifie en profondeur la gouvernance d’une entreprise. Pour autant, l’intelligence artificielle a la particularité de transformer l’économie avec une main-d’oeuvre numérique. Mais une main-d’œuvre d’assistance et non de substitut, nuance à l’origine de nombreux malentendus. Ce n’est pas nouveau, la technologie n’est qu’un outil et la façon dont les entreprises s’en servent détermine ses impacts.
Une percée fulgurante
Contrairement aux premières vagues de solutions génératives de 2023, l’IA actuelle fait une percée fulgurante dans les produits. On la retrouve dans les puces NPU dédiées mais aussi dans des appliances de cybersécurité ou dans les solutions de communication unifiée, où elle améliore l’expérience utilisateur en filtrant les bruits en temps réel ou en générant automatiquement des comptes-rendus de réunion très précis. Des simples capteurs intelligents associés à des environnements de RPA (Robotic Process Automation) aux DSLM, ou modèles de langage spécifiques à un domaine, en passant par des IA agentiques déployées clés en main, l’éventail de solutions est large. L’automatisation de tâches complexes, l’amélioration des prises de décision et la personnalisation des services clients sont quelques thèmes majeurs sur lesquels les grandes entreprises se sont déjà penchées, souvent avec succès. Elles ont alors classiquement cherché à établir une gouvernance mêlant approche globale des projets, déploiement progressif des solutions, agilité des processus, rationalisation des métiers. Elles ont surtout tiré parti d’une bonne connaissance de leur infrastructure pour poser les fondations de leurs projets, contrôler des expérimentations sans risques critiques, industrialiser des usages validés, stabiliser les déploiements, maximiser la valeur ajoutée et anticiper les dérives.
Ce parcours idéal ne peut s’envisager sans l’aide d’équipes techniques et décisionnelles impliquées, rompues par des années de pratiques de gestion des processus et de gouvernance des données. Des équipes qui maîtrisent à la fois les aspects sécuritaires et les enjeux de l’association d’un écosystème matériel et logiciel avec la chaîne de valeur de l’IA. En toile de fond, des ERP aux CRM, une stratégie d’intégration claire et conforme aux objectifs de cœur de métier aide les organisations à atteindre leurs objectifs.
Des entreprises déçues
Le tableau n’est pas toujours si positif pour toutes les entreprises. Certains grands groupes ont dû abandonner des initiatives trop coûteuses, dont les bénéfices attendus n’étaient pas au rendez-vous. Parmi les écueils souvent cités, la précipitation sans cadrage clair du projet tient une bonne place, tout comme l’ignorance des enjeux juridiques et réglementaires. Sans définir dès le départ les objectifs métiers, les indicateurs de succès et les processus à transformer, les chances de réussite sont minces. Opter pour un modèle d’IA hébergé à l’étranger sans contrôle des flux de données peut exposer l’entreprise à des sanctions.
À ces deux obstacles s’ajoute la sous-estimation de la qualité des données. L’IA générative ou agentique n’est jamais meilleure que les données qu’on lui fournit. Beaucoup d’entreprises tentent d’entraîner ou d’alimenter des modèles sur des bases mal structurées, obsolètes ou partielles. Sans gouvernance de la donnée, ni processus de nettoyage, l’IA produit des contenus faux, biaisés ou inutilisables. « Une IA performante repose d’abord sur des données fiables. Sans fondement solide, l’IA ne peut ni produire de valeur ni respecter les standards éthiques et réglementaires », souligne Jacques Padioleau, vice-président Europe du Sud chez Qlik.
Cet éditeur spécialisé dans l’intégration et la qualité des données a conçu l’indicateur Trust Score for AI pour mesurer la fiabilité des données exploitées dans les projets d’IA et garantir que celles-ci sont prêtes à alimenter les modèles choisis. L’outil de Qlik permet ainsi d’évaluer les jeux de données selon des critères clés, notamment la diversité (pour limiter les biais), la fraîcheur (pour s’assurer de la pertinence temporelle) et la précision (en lien avec les règles métiers). Ces dimensions enrichissent des indicateurs existants comme la découvrabilité ou l’usage, offrant une vision globale de la robustesse des données. Elles répondent également aux exigences éthiques et réglementaires. Non seulement ces approches facilitent le repérage des jeux de données déséquilibrés ou biaisés mais elles contribuent à la conformité avec le RGPD ou l’AI Act en assurant traçabilité, classification et audibilité des données. Autant de critères indispensables à la mise place d’une IA responsable.
Diversifier les jeux de données
À noter que de nombreux acteurs font du volet éthique un élément central des projets. Une IA apprend à partir des données qui lui sont fournies et hérite alors de potentiels biais. Ainsi, si les données montrent qu’on contrôle davantage certaines populations, l’IA va les désigner comme plus suspectes. Pour corriger ce type de dérive, il faut que les organisations introduisent volontairement des contrepoids, en particulier de la diversité dans les jeux de données et des contraintes dans les résultats. La démarche est autant éthique que politique. Aux entreprises de décider si elles veulent seulement optimiser leurs activités ou réparer aussi des déséquilibres. Les plus avancées d’entre elles limitent les biais dans les modèles, testent régulièrement les réponses pour éviter les hallucinations et mettent en place des processus d’escalade humaine. Mais elles sont peu nombreuses aujourd’hui. La grande majorité des structures sont victimes de leur propre stratégie. « Trop d’entreprises ont des idées ambitieuses sans avoir de vision claire sur la quantité et surtout la qualité de leurs données. Or, sans données fiables et bien structurées, aucun projet IA ne tient. On recommande souvent de commencer par des cas d’usage transverses, plus simples à déployer, comme l’automatisation de tâches bureautiques. Cela permet de démontrer des gains réels sans engager de gros investissements », conseille Thibault Milan, directeur de l’innovation chez Smile.
Avant de se lancer, privilégier des projets modestes est une recommandation récurrente. L’IA n’est pas mûre pour tout déploiement à grande échelle, même lorsqu’elle a passé la redoutable épreuve du PoC. En plus de problèmes dus à l’absence de données qualifiées, le passage à l’industrialisation implique des coûts et la création de modèles économiques que de nombreuses organisations ne peuvent ni assurer ni mettre en œuvre. Heureusement, pour des cas d’usage simples et bien délimités, l’IA délivre une puissance mesurable et plutôt bon marché, notamment pour mettre en place un support client associé à un catalogue produits stable ou encore analyser du texte à forte redondance. Le marketing, les ressources humaines, le juridique et même le développement de logiciels peuvent eux aussi adopter l’IA à moindre coût.
La simplicité, rehaussée par de l’inventivité, est la piste privilégiée par les entreprises qui ne possèdent pas les ressources de grands comptes et dont une récente enquête de Bpifrance révèle qu’elles sont très motivées pour exploiter l’intelligence artificielle. Selon le rapport, 58 % des dirigeants considèrent même que l’IA est un enjeu de survie à moyen terme. Lorsque Bpifrance a interrogé ces patrons de PME et d’ETI en 2024, ils étaient déjà 3 % à avoir adopté une stratégie IA et se reconnaissaient dans les quatre profils de dirigeants « innovateurs, bloqués, sceptiques et expérimentateurs ».
Une méconnaissance des fondements de l’IA
Mais, quelle que soit leur taille, pourquoi les entreprises peinent-elles à mettre en place une stratégie structurée, des choix technologiques avisés et une gouvernance rigoureuse alors qu’elles ont déjà franchi ces caps dans d’autres domaines de l’IT ? « Par méconnaissance du fonctionnement réel des IA, en particulier génératives. On ne comprend pas que ces systèmes sont fondamentalement probabilistes. Ils produisent une réponse, même quand ils ne savent pas. Ce sont des modèles statistiques, pas des moteurs logiques. Et ils hallucinent, systématiquement. C’est inhérent à leur architecture. Ensuite, il y a une difficulté à mesurer l’impact réel. On remplace souvent des micro-tâches humaines, éparpillées dans le quotidien des collaborateurs, mais on ne mesure ni le temps réel que ça prend ni le coût de la vérification nécessaire après intervention de l’IA. Le ROI reste donc flou, souvent basé sur des hypothèses fragiles », explique Nicolas Woirhaye.
Ce constat, qui rappelle ce qui sépare l’IT magique de la réalité, n’est pas nouveau pour les acteurs de la transformation numérique, régulièrement poussés à restructurer leurs offres en fonction des essors technologiques. En enrichissant aujourd’hui le fonctionnement de leurs propres infrastructures d’une composante IA, ils se préparent à tirer parti de nouvelles expertises pour répondre à la demande de clients. « SmilAI est bien plus qu’un simple projet. C’est une transformation profonde de notre culture d’entreprise. Notre ambition est claire : faire de l’IA un levier stratégique pour l’ensemble du groupe, aussi bien en interne qu’au service de nos clients », illustre Sophie Bouet, responsable du personnel chez Smile. Cet éditeur spécialiste de l’open source propose désormais des offres IA adaptées à trois niveaux différents de maturité technologique dans l’entreprise. On observe sur le marché une multiplication de ce type de prestations et des solutions qui les accompagnent.
Fuir l’AI washing
Le recours aux spécialistes de l’IT est le meilleur moyen d’éviter les désillusions de l’AI washing. Encore faut-il miser sur les bons partenaires. Les intégrateurs, capables de guider le choix technologique autant que d’assurer la mise en conformité sont tout indiqués. Ces professionnels savent connecter et articuler de nombreuses briques technologiques au sein d’un SI. Chaînon entre les éditeurs d’IA, les fabricants de matériel et les hébergeurs de cloud et d’infrastructures souverains, ils possèdent une expertise précieuse pour la mise en œuvre des projets, leur suivi et leur sécurité. Cette dernière est particulièrement remise en cause face à de nouveaux risques. D’un côté, il y a la propension de l’IA aux biais et aux hallucinations, qui peut conduire à de graves dysfonctionnements si l’IA est chargée de protéger les systèmes et applications de l’entreprise. De l’autre, un contexte de cybersécurité où parades et attaques sont générées par les mêmes technologies d’IA. Sur les terrains d’affrontement où mesures et contre-mesures se succèdent sans fin, l’intelligence artificielle au service des cybercriminels nécessite un redoublement de vigilance. L’une des illustrations marquantes de ces avancées a été la révélation de WormGPT en 2022. Cette IA basée sur ChatGPT et capable de générer des campagnes de phishing avait disparu des radars un an après. Mais Cato Networks a divulgué en juin dernier le retour de la plateforme malveillante à travers des variantes s’appuyant sur les LLM Grok de xAI et Mixtral de Mistral AI.
AVIS D’EXPERT
« Un projet d’IA privée nécessite une infrastructure moderne et performante. »
Anwar Dahab, DG France, Dell Technologies
Quelles sont les évolutions majeures de l’IA ces dernières années ?
Nous sommes passés d’un modèle centré sur l’algorithme à une approche basée sur la donnée. Cela signifie que la qualité, la gouvernance et la sécurisation des données sont devenues des enjeux stratégiques pour toutes les entreprises. La prochaine vague d’innovation repose sur l’IA privée, qui permet aux entreprises de déployer des modèles sur leurs propres infrastructures, garantissant ainsi un contrôle total sur leurs données sensibles. Ce virage est essentiel pour répondre aux exigences de confidentialité, de conformité réglementaire et d’optimisation des performances. L’IA privée offre aux organisations la possibilité d’exploiter la puissance de l’IA tout en maintenant une maîtrise complète sur la propriété et la sécurité des données.
Quelles sont les exigences matérielles pour réaliser un projet d’IA privée ?
Un projet d’IA privée nécessite une infrastructure moderne et performante, capable de répondre à des impératifs de bande passante, de latence réduite, de haute disponibilité et de sécurité. Nous privilégions des architectures dites « découplées » : des serveurs spécialisés comme les PowerEdge XE avec GPU sont dédiés au calcul intensif, tandis que le stockage est assuré par des solutions comme PowerScale, ECS ou PowerFlex. Cette approche en trois tiers, plus flexible que les architectures hyper-convergées, permet d’optimiser les performances tout en intégrant des capacités avancées d’automatisation. Nous investissons également dans la simplification de l’exploitation des infrastructures grâce à des fonctions automatisées comme le Lifecycle Management, assurant ainsi la compatibilité avec les logiciels middleware. Par ailleurs, nous veillons à l’optimisation réseau pour éviter les goulets d’étranglement, ce qui est essentiel pour les applications IA. Enfin, notre plateforme Dell AI Factory offre une solution complète – matériels, logiciels, services et partenariats stratégiques – pour faciliter la mise en œuvre de projets IA fiables, sécurisés et évolutifs.
Le ministère de l’Éducation nationale inspecte les inspections avec de l’IA
Klee Group a remporté l’équivalent d’un appel d’offres du ministère. « Nous avons mené un projet ponctuel avec la direction du numérique du ministère et le Conseil d’évaluation de l’École, une instance indépendante chargée d’analyser les résultats des inspections menées chaque année dans environ 20 % des établissements scolaires (écoles, collèges et lycées), soit près de 10 000 établissements. Le besoin exprimé concernait l’analyse thématique de apports très volumineux dans des domaines comme le harcèlement scolaire ou l’égalité filles/garçons en mathématiques, par exemple. Le processus, long et manuel, mobilisait environ 150 heures par thématique. L’enjeu était d’accélérer ce traitement mais aussi d’élargir l’échantillon de rapports étudiés », explique Justine Guégan, data scientist chez Klee Group. Le projet a combiné des techniques de NLP pour identifier les passages pertinents avec un LLM pour générer des synthèses. Le tout sur une infrastructure SecNumCloud garantissant la souveraineté des données. Le LLM est appelé via l’API Albert, fournie par la Dinum, pour permettre un usage maîtrisé d’outils open source dans le secteur public. « Nous avons conçu une architecture modulaire, basée sur des briques réutilisables : base vectorielle, pipeline d’analyse, supervision des résultats. Le projet est transposable à d’autres contextes traitant de documents textuels riches. À terme, des agents IA spécialisés pourraient également intervenir sur des cas plus analytiques ou décisionnels », indique Justine Guégan.
Cognizant confie son audit qualité à l’IA de Camunda
Confrontée aux contraintes réglementaires européennes, notamment le RGPD et les règles du droit du travail, Cognizant a dû adapter l’usage de l’IA agentique dans ses processus métiers.
Pour garantir conformité et transparence, l’entreprise a choisi la plateforme d’automatisation Camunda pour modéliser ses workflows avec des points de contrôle humains obligatoires. L’IA doit être utilisée pour proposer des actions mais l’exécution reste conditionnée à une validation manuelle. Cette approche hybride permet d’exploiter le potentiel de l’IA tout en respectant les obligations légales en matière de traitement de données et de supervision humaine. Les processus ont été modélisés en BPMN (Business Process Model and Notation), intégrant directement les pistes d’audit, les mécanismes d’escalade et la visibilité complète sur chaque étape. Ce niveau de traçabilité fournit un contrôle total des interactions entre agents intelligents et opérateurs humains. Les résultats sont significatifs : le temps moyen nécessaire pour un audit qualité est passé de 138 à seulement 7 à 10 minutes. En parallèle, la productivité des auditeurs a progressé de 20 à 30 %, tandis que les coûts opérationnels ont été réduits de 30 à 50 %. Un retour d’expérience qui illustre l’intérêt d’une IA encadrée, combinant performance, conformité réglementaire et transparence des processus. « On ne confie pas toutes les opérations à un système opaque mais on utilise l’IA là où elle génère le plus de valeur. Cette orchestration s’accompagne d’interventions humaines et de l’automatisation déterministe. C’est ce qui rend l’orchestration agentique si performante. Elle est flexible, observable et conçue pour évoluer », souligne Daniel Meyer, directeur technique chez Camunda.
INTERVIEW
« Ce n’est pas en confiant l’IA uniquement à des femmes qu’on garantira une IA inclusive et non biaisée mais leur participation est indispensable. »
Céline Delaugère, entrepreneure, artiste et mannequin française
SNC – Vous avez un parcours à la croisée des sciences, de la mode et de l’art. Quel a été le fil rouge de votre cheminement ?
C. D. – C’est l’entrepreneuriat et l’innovation. Qu’il s’agisse de mes débuts dans la mode, de la création d’une collection artistique, de la pratique du triathlon ou du lancement de mes entreprises, il y a toujours eu cette volonté d’inventer, de créer, d’explorer. J’ai toujours voulu proposer des solutions nouvelles, souvent grâce à l’intelligence artificielle.
SNC – Qu’est-ce qui vous a donné confiance pour investir un secteur aussi technique et masculin que celui de l’IA ?
C. D. – Ce sont avant tout des rencontres. Des échanges avec des entrepreneurs, des hommes dans la tech mais aussi des femmes inspirantes, parfois dans la mode. Ce sont ces personnes et leurs projets qui m’ont donné confiance. En les observant, je me suis dit : « Pourquoi pas moi ? » Même si j’ai ressenti, à un moment, les freins liés au fait d’être une femme dans ce milieu, je les ai surmontés. J’ai décidé que ce n’était pas un obstacle.
SNC – Les femmes représentent encore moins de 30 % des professionnels du numérique. Comment expliquez-vous ce décalage ?
C. D. – Le déséquilibre commence très tôt, dès l’éducation. Dans mes études en mathématiques, informatique et intelligence artificielle, nous étions moins de 20 % de femmes. Au lycée, déjà, je voyais des filles brillantes se détourner des sciences, souvent par manque de confiance ou peur de l’échec. C’est un phénomène récurrent : on se dit qu’on n’y arrivera pas, alors qu’on en est tout à fait capable.
SNC – Quels sont selon vous les principaux freins à lever pour encourager les vocations féminines dans la tech ?
C. D. – Je peux parler de ce que j’ai vécu, notamment dans l’entrepreneuriat. Lorsqu’on pitche devant un jury, on se retrouve souvent face à deux types de situations : soit un jury d’hommes par lequel on se sent jugée, parfois sur des critères extérieurs à nos compétences, soit un jury de femmes moins familières avec les sujets tech et avec qui il faut vulgariser davantage. Il y a un vrai décalage. Il faut créer des ponts entre ces univers. Des jurys plus mixtes, à la fois en genre et en expertise, permettraient à toutes et tous de se sentir légitimes. La diversité au sens large – sexe, culture, âge – est une solution essentielle.
SNC – En quoi la diversité est-elle essentielle pour construire une IA éthique ?
C. D. – L’IA façonne déjà notre quotidien, comme l’ont fait hier l’électricité ou Internet. La vraie question est : quel monde veut-on construire ? Je souhaite un monde éthique. Ce mot recouvre des sujets variés : diversité, responsabilité, souveraineté… Il est impératif de s’assurer que les technologies que nous développons servent un futur juste. Cela passe par des modèles évalués non seulement sur leur performance mais aussi sur leur impact moral.
SNC – Justement, comment garantir qu’une IA soit inclusive et non biaisée ?
C. D. – Ce n’est pas en confiant l’IA uniquement à des femmes qu’on résoudra tout mais leur participation est indispensable. Plus les équipes sont diverses, plus les modèles produits le seront aussi. Des outils existent pour évaluer les algorithmes sous des angles éthiques. Nous avons notamment vu qu’Amazon avait développé un algorithme de recrutement biaisé qui ne sélectionnait que des hommes. Pour éviter ce genre de dérives, il faut mettre en place des frameworks d’évaluation. De plus, les biais viennent souvent des données. C’est pour cela que mon entreprise se concentre sur la production de données de qualité. Nous utilisons notamment le framework SituAnnotate, développé par la chercheuse Delfina Sol Martinez Pandiani, pour enrichir les datasets avec des métadonnées : contexte culturel, temporalité… Cela permet à l’IA de mieux « comprendre » la diversité du monde réel.
SNC – Comment vos entreprises, MyDataMachine et EVA Engines, innovent-elles dans ce sens ?
C. D. – Depuis 2020,nous proposons des offres qui intègrent des outils d’évaluation de la diversité des données. Pour moi, il faudrait aller plus loin et instaurer une norme à l’échelle européenne : seuls les modèles ayant passé un minimum d’évaluations éthiques devraient pouvoir être déployés à grande échelle.
SNC – Vous êtes une artiste numérique, une entrepreneuse, une scientifique… Pensez-vous que cette hybridation est une voie vers une tech plus humaine ?
C. D. – Oui. On a longtemps associé la tech à une image de geek solitaire derrière son écran. Mais aujourd’hui, la technologie s’ouvre à tous les secteurs. On peut créer des outils puissants sans forcément savoir coder, notamment grâce au low code. Les frontières entre les disciplines tombent. L’art, la culture, le sport, la tech… tout s’entremêle. Cette hybridation permet d’avoir une vision plus globale, plus sensible, plus humaine de la technologie. C’est justement cela qui nous permettra de construire un monde numérique plus inclusif et plus juste.
Anaplan rationalise son infrastructure de stockage pour industrialiser ses projets IA

Pour soutenir l’industrialisation de ses projets, l’éditeur de solutions de planification d’entreprise en mode SaaS a refondu son infrastructure de stockage de données. Objectif : simplifier et fiabiliser l’ensemble de ses opérations, en particulier dans un contexte hybride mêlant cloud public et environnements sur site.
Avant d’adopter son nouveau fournisseur, Anaplan répartissait ses données sur les plateformes de stockage distinctes, entraînant une complexité technique croissante, notamment dans la gestion et l’alimentation des flux de données nécessaires aux applications basées sur l’IA. En plus d’éliminer les silos, l’entreprise cherche à mieux contrôler les coûts opérationnels et à assurer une performance constante sur l’ensemble de la chaîne de traitement des données. Elle opte pour une infrastructure NetApp, notamment les systèmes NetApp AFF série C pour les charges principales et NetApp FAS pour les volumes secondaires, ainsi que des services de stockage cloud compatibles avec
Ontap, la technologie logicielle du fabricant. Anaplan vise également une standardisation de ses pratiques pour les environnements cloud comme pour les datacenters internes. En rationalisant ses flux et en automatisant certaines tâches liées à la gestion des données, l’éditeur a réduit la charge opérationnelle sur ses équipes et gagné en efficacité dans l’exécution des processus IA. Anaplan a également mis en œuvre des solutions de haute disponibilité, comme MetroCluster, pour garantir la continuité d’accès aux données et renforcer la résilience de ses services. L’approche garantit l’efficacité de la chaîne de traitement et de stockage dans un contexte où la disponibilité des données est critique pour l’entraînement et l’exploitation des modèles. Ce retour d’expérience l’illustre, la qualité et la cohérence de l’infrastructure de stockage sont déterminantes pour passer à l’échelle et éviter les effets de fragmentation ou de surcoûts liés à des architectures mal alignées.
AVIS D’EXPERT
« L’IA : faisons vite mais faisons bien. »
Philippe Chrétien, CTO de Klee Group
« À force de parler des enjeux techniques de l’IA, il est crucial de rappeler que le véritable défi ne réside pas simplement dans l’automatisation des tâches mais dans une réflexion plus profonde sur leur nécessité. La priorité ne doit pas être de remplacer coûte que coûte des processus existants mais bien de repenser leur pertinence, en réservant l’IA uniquement à l’automatisation, ce qui est véritablement indispensable. Faute de quoi, nous risquons de perdre le contrôle d’un outil conçu pour nous émanciper mais dont l’implémentation pourrait paradoxalement accroître notre dépendance.
Alors que les États-Unis, la Chine et la France ont respectivement investi 248,9 milliards, 95,1 milliards et 6,6 milliards de dollars dans l’IA entre 2013 et 2022 ; alors que, dans le cadre du plan France 2030, l’Hexagone veut faire de l’IA une priorité en renforçant la stratégie nationale lancée en 2018 et prévoit près de 2,5 milliards d’euros d’investissements supplémentaires, faire le choix d’appliquer l’IA à des processus de fonctionnement préalablement simplifiés pourrait permettre à la France de pallier, dans une certaine mesure, les manques budgétaires. Faire moins mais mieux, ralentir pour mieux accélérer.
Ce principe, qui combine simplification et sobriété, serait non seulement bénéfique sur le plan budgétaire mais aussi sur le plan écologique, en prenant en compte l’impact environnemental des technologies basées sur l’IA. Souveraine, sécurisée, éthique : les qualificatifs se multiplient lorsqu’il s’agit de décrire les enjeux liés à l’intelligence artificielle. Toutefois, dans cette course effrénée à l’innovation et à l’automatisation, dont les promesses sont immenses, il est essentiel de s’interroger sur la pertinence et la nécessité de chaque projet. Faisons vite, certes, mais faisons bien. »
AVIS D’EXPERT
« Le stockage d’entreprise est au cœur de l’adoption de l’IA générative. »
Eric Herzog, CMO chez Infinidat
« Laissés à eux-mêmes, les LLM et SLM sont soit statiques, soit n’exploitent que des informations accessibles au public, telles que les informations disponibles sur Internet. Ces applications en langage naturel, axées sur les données et utilisées pour répondre aux questions des utilisateurs doivent être en mesure de croiser des sources d’information faisant autorité dans l’ensemble de l’entreprise. Cette dynamique a placé le stockage d’entreprise au centre de l’adoption de la GenAI dans les environnements d’entreprise par le biais de l’architecture RAG.
L’infrastructure de stockage doit être cybersécurisée et disponible à 100 %. En outre, le système doit offrir la latence la plus faible possible pour fournir un stockage très performant et ultra-fiable lorsque le projet passe en mode production. Le fait de disposer d’un système de stockage d’entreprise doté d’une architecture de déploiement de workloadRAG garantit l’exploitation de vastes ensembles de données et l’extraction rapide des informations pertinentes.
Il est certain que l’entreprise typique n’aura pas la capacité ou les moyens d’effectuer la formation initiale d’un LLM ou d’un SLM de manière autonome, comme le font les hyperscalers. La formation d’un LLM nécessite un système informatique robuste et hautement évolutif.
Néanmoins, l’interconnexion entre un hyperscaler et une entreprise – un transfert transparent qui est nécessaire pour que la GenAI devienne plus utile aux entreprises dans le monde réel – exige que les entreprises disposent d’un stockage de données à l’échelle du pétaoctet, de qualité professionnelle. Même les entreprises de taille moyenne doivent envisager un stockage à l’échelle du pétaoctet pour s’adapter aux changements rapides de l’AI.
La valeur des données augmente lorsque vous transformez votre infrastructure de stockage d’un support statique en une plateforme dynamique et superintelligente de nouvelle génération pour accélérer et améliorer la transformation numérique de l’IA. »
Frédéric Bergonzoli