Chaque année, les experts se livrent au jeu des prédictions. Quelles technologies vont dominer, se rendre indispensables ou au contraire régresser ? L’IA va-t-elle tenir ses promesses de ROI ? Les cyberattaquants vont-ils développer de nouvelles techniques ? Voici la sélection de la rédaction.
◗ Datacenters
LA QUESTION DE L’ÉNERGIE

Les datacenters, moteurs de l’économie numérique, connaissent une expansion rapide pour répondre aux besoins en puissance de calcul du cloud et de l’IA, ce qui entraîne une forte augmentation de la consommation d’énergie. « Il y a 10 ans, un datacenter de 30 mégawatts était considéré comme énorme. Aujourd’hui, lorsqu’une entreprise annonce son intention de construire un centre de données de 300 mégawatts, personne ne sourcille. Avec l’IA, les datacenters de 1 gigawatt sont la norme », explique Harry Handlin, responsable du segment datacenters États-Unis chez ABB, qui propose des solutions de gestion énergétique.
On estime qu’au cours des cinq années à venir, les plus grandes entreprises technologiques mondiales vont investir 1 000 milliards de dollars dans de nouveaux datacenters. Cette expansion rapide va s’accompagner d’une hausse sans précé- dent de la demande d’électricité.
◗ Cybersécurité
QUANTIQUE : ANTICIPER LES MENACES

L’informatique quantique impose de nouveaux défis pour la cryptographie, explique l’ESN indienne Wipro. Les entreprises, notamment dans les secteurs sensibles comme la finance et les télécoms, devront anticiper ces menaces avec des cryptographies résistantes aux attaques quantiques et des modèles d’IA adaptés, assurant la transition vers une sécurité renforcée pour les actifs critiques.
Kaspersky prédit d’ailleurs l’arrivée de ransomwares à l’épreuve du quantique dès cette année. Les techniques de chiffrement utilisées par ces ransomwares sont destinées à résister aux tentatives de décryptage des ordinateurs classiques et quantiques, ce qui rend presque impossible le déchiffrement des données par les victimes.
◗ Cybersécurité et cloud
LA SÉCURITÉ DES PLATEFORMES CLOUD NATIVES
Les spécialistes des plateformes exploiteront les capacités de sécurité des plateformes cloud natives. Des fournisseurs tels que Cisco, Fortinet, Palo Alto Networks et Wiz ont investi massivement dans leurs solutions de sécurité cloud avec la gestion de la posture de sécurité cloud, la gestion des droits d’accès à l’infrastructure cloud, l’analyse de l’infrastructure en tant que code et les ensembles de fonctionnalités de sécurité des conteneurs, ainsi que la gestion centralisée et générative des politiques, la détection, la réponse et le reporting. En 2025, les hyperscalers tels que AWS, Azure et Google continueront à développer leurs capacités natives de sécurité des charges de travail cloud (CWS) mais la concurrence autonomes sera une menace redoutable. D’ici la fin de l’année 2025, 60 % des clients du cloud préféreront les capacités CWS natives de la plateforme hyperscaler, tandis que les 40 % restants feront appel à un fournisseur CWS spécialisé dans la plateforme.
◗ Portefeuilles d’identité numérique
LEUR STANDARDISATION VA S’ACCÉLÉRER
Progressivement, les portefeuilles d’identité numérique et les données d’identification vérifiables vont passer du concept à la réalité en 2025. L’Europe œuvre en ce sens à travers des initiatives telles que l’identité numérique européenne (EUDI), qui sera accessible aux 448 millions de citoyens européens d’ici 2026. « Face à la demande croissante d’identités numériques sécurisées et portables, nous allons assister aux prémices de la nécessaire fusion des différentes initiatives de standardisation – une étape essentielle pour que les portefeuilles d’identité deviennent universellement accessibles et fiables », d’après Andrew Shikiar, P-DG de l’Alliance Fido.
◗ UCAAS
DES CENTRES DE CONTACT REPENSÉS

Selon Gilles Guiral, directeur général France de Wildix, les centres de contact vont connaître une transformation profonde, passant de structures traditionnelles à des plateformes sophistiquées d’engagement client alimentées par l’intelligence artificielle. Cette évolution va révolutionner la relation client en proposant des interactions multicanales fluides, intégrant le chat, l’e-mail et les réseaux sociaux.
« L’innovation majeure résidera dans la capacité de l’IA à offrir une vision holistique du parcours client. Les agents disposeront désormais d’informations contextuelles complètes leur permettant de fournir un support proactif et hautement personnalisé. »
En parallèle, face à des exigences de confidentialité et à des réglementations croissantes, l’enjeu sécuritaire est plus crucial que jamais. Pour se protéger, les fournisseurs UCaaS intègrent désormais des modèles Zero Trust et des normes de cryptage avancées. Ces technologies garantissent la protection des données tout en s’adaptant rapidement aux réglementations mondiales.
◗ IA
L’ADOPTION DES PLATEFORMES AIOPS

Forrester prédit que 75 % des décideurs technologiques verront leur dette technique atteindre un niveau de gravité modéré ou élevé d’ici 2026. Cela sera dû au développement rapide des solutions d’IA, qui ajoutent de la complexité aux paysages informatiques. En 2025, pour endiguer le tsunami de dette technique, les leaders technologiques tripleront l’adoption des plateformes d’IA pour les opérations informatiques (AIOps), qui fournissent des données contextuelles pour améliorer le jugement humain, remédier automatiquement aux incidents et améliorer les résultats commerciaux.
◗ Cloud
L’AUGMENTATION DES INVESTISSEMENTS DANS LE CLOUD PRIVÉ

Selon Forrester, le cloud privé va prendre de l’ampleur avec les alternatives à VMware. L’informatique sur site (quel que soit le nom) est à nouveau en plein essor à mesure que les entreprises résolvent les problèmes de souveraineté, de coût et de propriété/sécurité des données, mais les nouveaux arrivants et les extensions de cloud privé ne chercheront probablement pas à étendre leurs activités avec VMware, acteur dominant du cloud privé, compte tenu des changements de regroupement et de tarification annoncés au premier semestre 2024. En conséquence, Forrester prévoit qu’en 2025 la plupart des grands fournisseurs de cloud public augmenteront leurs investissements dans le cloud privé et que des offres comme Nutanix et des projets open source tels que OpenStack susciteront un intérêt accru de la part des utilisateurs.
◗ Développement de logiciels
LES PLATEFORMES DEVOPS

La moitié des entreprises abandonneront les meilleurs outils individuels pour les plateformes DevOps, qui continuent de bénéficier des meilleurs outils. L’ingénierie des plateformes fait fureur auprès des utilisateurs et leur vente cartonne auprès des fournisseurs d’outils logiciels. Christopher Condo, analyste principal chez Forrester, explique : « En fait, vous pouvez regarder n’importe lequel des marchés autrefois de niche pour les outils de développement de logiciels et voir que de nombreux fournisseurs qui étaient autrefois les meilleurs de leur catégorie ont fusionné et se sont rachetés les uns les autres, de la gestion du portefeuille d’applications jusqu’à celle des performances des applications. Personne n’est satisfait d’une seule part du gâteau, ils veulent tout le gâteau. »
◗ Observabilité
CONVERGENCE DE L’OBSERVABILITÉ ET DE LA SÉCURITÉ POUR UNE CONFORMITÉ CONTINUE
En 2025, selon Dynatrace, la conformité évoluera vers un système dynamique en temps réel, piloté par des normes de sécurité et des cadres réglementaires tels que la réglementation Dora et la directive sur la sécurité NIS 2. La convergence de l’observabilité et de la sécurité fournira aux organisations des informations unifiées pour assurer la conformité, réduire la collecte de données redondantes et renforcer la détection des menaces et la réponse aux incidents. Ainsi, les systèmes d’IA surveilleront en permanence l’exposition aux menaces pour évaluer les risques et préparer les ajustements de configuration, garantissant de ce fait que les organisations maintiennent la conformité sans perturber les opérations.
2 TECHNO FAUX PAS
La biométrie seule garante d’authentification !

La biométrie a été saluée comme la panacée de l’authentification mais Roger Grimes, un expert renommé en authentification de KnowBe4, une entreprise de formation à la sécurité, pense que cette idée est fausse, rapporte Tanium. « Dites adieu au mythe des empreintes digitales comme identifiants uniques – elles sont presque aussi facilement piratées que les mots de passe, affirme-t-il. Il sera prouvé que la biométrie n’est pas un bon facteur d’authentification », car la technologie moderne comme l’IA générative rend beaucoup trop facile la falsification d’un visage, d’une rétine ou d’une empreinte digitale. Ces films où des voleurs coupent le pouce d’un méchant et l’utilisent pour scanner leur chemin dans un coffre-fort de banque impénétrable prennent un tout nouveau sens avec la technologie numérique. « Aujourd’hui, je peux prendre 30 secondes de vidéo et créer un deepfake pour voler votre banque », explique l’expert.
Un rapport de l’Institute for Security + Technology le confirme : « L’essor d’une technologie de contrefaçon convaincante constitue une menace sérieuse pour les systèmes d’authentification traditionnels qui s’appuient sur des indices visuels ou auditifs pour la vérification. Les systèmes d’authentification biométrique qui utilisent la reconnaissance faciale ou l’analyse vocale ont déjà été compromis par la technologie deepfake dans plusieurs cas. »
La suite ? Les entreprises et les gouvernements se tourneront probablement vers l’authentification multifactorielle (MFA) et d’autres formes de gestion améliorée de l’identité et des accès (IAM), en combinant la biométrie avec des clés matérielles comme les YubiKeys, par exemple. En résumé : la biométrie seule n’est tout simplement pas assez sécurisée. Gartner prédit que d’ici 2026, les attaques utilisant des deepfakes générés par l’IA sur la biométrie faciale amèneront 30 % des entreprises à ne plus considérer ces solutions de vérification et d’authentification d’identité comme fiables isolément.
L’IA avec des réseaux d’entreprise pas adaptés

Selon Verizon, alors que les entreprises font la course pour adopter et accélérer les cas d’usage de l’IA, beaucoup constateront que leurs réseaux à large bande ou leurs réseaux publics basés sur IP ne sont pas adaptés aux besoins. Cela entraînera une sous-performance significative des applications qui étaient pourtant censées améliorer les opérations grâce à l’adoption de l’IA.
Des reconceptions et des mises à niveau à grande échelle des réseaux pourraient être nécessaires, tandis que l’accès aux compétences requises pour effectuer ces changements efficacement deviendra de plus en plus limité.
ILS L’ONT DIT
2025 sera l’année de la démocratisation de l’IA B to B

Chief Product and
Strategy Officer de G-P
« Les entreprises de toutes tailles ayant désormais accès à des outils et technologies d’IA avancés qui étaient autrefois réservés aux grandes entreprises disposant de ressources importantes, la démocratisation de l’IA se produit plus rapidement que prévu. La vitesse globale se poursuivra avec les progrès des grands modèles de langage (LLM), des plateformes d’IA en tant que service et des logiciels d’IA conviviaux, permettant aux petites et moyennes entreprises d’exploiter la puissance de l’IA pour améliorer la prise de décision, rationaliser les opérations et offrir des expériences personnalisées aux clients. Cette évolution uniformisera les règles du jeu, permettant aux entreprises d’intégrer l’IA dans leurs processus sans avoir besoin d’une expertise technique approfondie ou d’un investissement massif en capital. En conséquence, l’IA B to B deviendra un élément fondamental de la stratégie d’entreprise dans tous les secteurs, stimulant l’innovation, améliorant l’efficacité et offrant de nouvelles opportunités de croissance. »
Une gouvernance des API plus complète et spécialisée
« L’intégration croissante des services tiers et des données via des API ainsi que la transition vers des déploiements multicloud hybrides et les déploiements basés sur des conteneurs cloud native redéfinissent le paysage de la gestion des API. Ces tendances entraînent la nécessité d’une gestion centralisée à travers des passerelles et des fournisseurs variés, ainsi que des capacités d’intégration avancées et des mesures de sécurité renforcées. De plus, le nombre croissant d’API et l’utilisation accrue de services et de données cloud externes, tels que l’IA, poussent les organisations à adopter une gouvernance des API plus complète et spécialisée, couvrant la conception, la sécurité et l’exécution. Cette complexité croissante amplifie les risques liés à la sécurité, la conformité, la gouvernance des données et les coûts, nécessitant une plus grande visibilité et un meilleur contrôle tout au long du cycle de vie des API. À mesure que la gestion des API évolue, elle doit garantir la stabilité, la flexibilité et une intégration complète avec des capacités fondamentales, telles que l’intégration et la gestion des identités et des accès, qui sont essentielles pour une intégration sécurisée et conforme des services divers. En 2025, ces tendances se poursuivront, un accent croissant porté sur les technologies émergentes telles que l’informatique quantique et les avantages et risques associés. Les plateformes API devront suivre le rythme en offrant un support natif pour les normes évolutives et la scalabilité nécessaire pour répondre aux exigences des environnements hautement automatisés et cloud native. »
Christopher Davey, vice-président et directeur général gestion des API, WSO
Les données l’emportent sur les algorithmes

professeur d’intelligence
artificielle DeepMind à l’université
d’Oxford et membre du conseil
de l’IA de Qlik.
« L’IA évolue à une vitesse fulgurante. Des choses qui semblaient relever de la science-fiction il y a quelques années ‒ même pour les spécialistes ‒ sont aujourd’hui une réalité.
Nous pouvons d’ores et déjà tirer un enseignement des avancées de l’IA : jusqu’à présent et dans la plupart des cas, les données l’emportent sur les algorithmes. Il est essentiel d’élaborer des standards de qualité des données, ainsi que d’assurer leur reproductibilité et le suivi de leur provenance pour développer des systèmes d’IA dignes de confiance. »
LES LAKES ADOPTÉS PAR LES APPLICATIONS SAAS

« Un glissement discret mais significatif est en cours dans le monde des applications SaaS : de plus en plus d’éditeurs optent pour des data lakes comme socle technologique. Les raisons sont claires : meilleur contrôle des coûts, flexibilité accrue et liberté vis-à-vis des grands fournisseurs cloud. Grâce à des formats ouverts comme Iceberg et des moteurs de requête performants comme Trino, ces applications peuvent gérer des volumes de données massifs avec un coût maîtrisé tout en garantissant une évolutivité à long terme. Ce choix stratégique reflète les pressions économiques actuelles, où des marges optimisées et des produits compétitifs deviennent des impératifs pour se démarquer. Ces mutations s’entrelacent pour dessiner une approche holistique de la gestion des données, où stratégie, technologie et agilité se rencontrent. En 2025, l’enjeu sera d’orchestrer ces éléments pour transformer la donnée en véritable moteur de croissance. »
SCÉNARIOS DE CRISE
Selon Trend Micro, que se passerait-il en 2025 si…

Le rapport de Trend sur les prévisions pour 2025 met en garde contre le potentiel de jumeaux numériques malveillants, dans lesquels les informations personnelles divulguées ou subtilisées seraient utilisées pour former un LLM à imiter les connaissances, la personnalité et le style d’écriture d’un individu (victime, employé, etc.). Déployés en combinaison avec des vidéos et audios falsifiés et des données biométriques compromises, ils pourraient être utilisés pour convaincre un ami, un collègue ou un membre de la famille lors d’une fraude d’identité.
Selon Kaspersky, que se passerait-il en 2025 si…

… un grand fournisseur d’IA était confronté à une panne ou à une violation de données ?
Les entreprises s’appuient de plus en plus sur divers modèles tels que ceux d’OpenAI, de Meta, d’Anthropic, etc. Cependant, malgré l’excellente expérience utilisateur que ces intégrations offrent, elles entraînent des cyber-risques importants. La dépendance à l’égard d’un seul ou d’un nombre limité de fournisseurs de services d’IA crée des points de défaillance concentrés. Si une grande entreprise d’IA subit une panne grave, cela pourrait avoir des répercussions importantes sur des dizaines, voire des milliers de services qui dépendent d’elle. En effet, un incident chez un grand fournisseur d’IA pourrait entraîner une fuite de données extrêmement critique, car ces systèmes peuvent stocker de grandes quantités d’informations sensibles.
… les outils d’IA intégrés aux appareils étaient piratés ?
À mesure que des capacités d’IA sont intégrées dans des produits du quotidien, le risque qu’elle devienne un vecteur d’attaque s’accroît considérablement. Ainsi, la campagne Operation Triangulation, révélée par Kaspersky l’année dernière, a démontré que les attaquants pouvaient compromettre l’intégrité des appareils, en exploitant des failles de type Zero-Day dans le logiciel et le matériel du système pour déployer des logiciels espions avancés. Si elles sont découvertes, des failles logicielles ou matérielles similaires dans les unités de traitement neuronal qui alimentent l’IA pourraient étendre la menace ou en présenter une d’autant plus grande. Leur exploitation pourrait permettre d’amplifier considérablement la portée et l’impact de ces attaques. Les recherches de Kaspersky sur l’opération Triangulation ont par ailleurs révélé un cas inédit signalé par l’entreprise : l’utilisation abusive de l’apprentissage automatique à des fins d’extraction de données. Cet exemple montre que les fonctions conçues pour améliorer l’expérience de l’utilisateur sont d’ores et déjà détournées par des acteurs de la menace hautement qualifiés.
… les acteurs de la menace entravaient la connectivité par satellite ?
Alors que l’industrie spatiale est régulièrement confrontée à des cyberattaques d’ampleur, la nouvelle cible des acteurs de la menace pourrait être les fournisseurs d’accès à Internet par satellite, qui sont des maillons importants de la chaîne de connectivité mondiale. Internet par satellite peut fournir des liaisons de communication temporaires lorsque d’autres systèmes sont en panne ; les compagnies aériennes, les navires et d’autres plateformes peuvent s’en servir pour fournir une connectivité à bord ; il peut également être utilisé pour mettre en place des services de communication sécurisés. Cela présente des risques sur le plan informatique : une cyberattaque ciblée ou une mise à jour défectueuse de la part d’un fournisseur de satellite important ou dominant pourrait provoquer des pannes voire des ruptures de communication, ce qui aurait des répercussions sur les individus et les organisations.
… des menaces physiques majeures pesaient sur Internet ?
Toujours dans le domaine de la connectivité, Internet est également vulnérable aux menaces physiques. 95 % des données mondiales sont transmises par des câbles sous-marins et il existe près de 1 500 points d’échange Internet (IXP), parfois au sein de centres de données où différents réseaux échangent du trafic. Une perturbation de quelques éléments critiques de cette chaîne ‒ tels que des câbles ou des points d’échange Internet clés ‒ pourrait surcharger le reste de l’infrastructure, ce qui aurait pour conséquence de provoquer des pannes généralisées et d’avoir une incidence considérable sur la connectivité mondiale.
… de sérieuses failles dans les noyaux Windows et Linux étaient exploitées ?
Ces systèmes d’exploitation sont utilisés pour faire fonctionner de nombreux actifs critiques dans le monde, notamment des serveurs, des équipements de fabrication, des systèmes logistiques, des appareils IoT, etc. Une faille du noyau exploitable à distance dans ces systèmes pourrait exposer d’innombrables appareils et réseaux à des attaques potentielles, créant une situation à risque élevé dans laquelle les chaînes d’approvisionnement mondiales pourraient être confrontées à des perturbations importantes.
Juliette Paoli