Le monde de l’IT est en pleine effervescence, plongé dans une véritable course à l’IA. Un raz-de-marée sans précédent se profile avec le lancement de DeepSeek, un chatbot open source conçu pour rivaliser avec l’architecture d’OpenAI. Comme chaque avancée en matière d’intelligence artificielle, ce nouvel outil suscite des interrogations sur la confidentialité des données.
Sam Curry, Global VP & RSSI consultant chez Zscaler, prend le temps pour nos lecteurs d’analyser de plus près le potentiel de ce nouvel outil d’IA et les défis qu’il soulève concernant la confidentialité des données.
L’intelligence artificielle repose avant tout sur la collecte, le traitement et l’enrichissement des données. Sans données, l’IA, du moins dans sa forme actuelle, ne peut tout simplement pas exister. Plus le volume et la qualité des données augmentent, plus l’intelligence artificielle gagne en performance. Les moteurs contextuels d’outils comme ChatGPT et, désormais, DeepSeek s’appuient sur ces données pour affiner leurs modèles et produire des résultats toujours plus précis et pertinents. Mais se posent plusieurs questions essentielles : qui contrôle ces données et qui peut y accéder ? Quels types de données alimentent ces outils d’IA, et quels biais potentiels peuvent s’y cacher ?
La démocratisation de l’IA
DeepSeek se dit capable de traiter des quantités massives de données et de déstabiliser les places boursières puisqu’il affiche un coût nettement inférieur à celui de ses concurrents. Pendant des années, les entreprises américaines ont régné en maîtres sur l’innovation numérique. Et depuis deux ans, dans cette nouvelle course à l’intelligence artificielle, les premières grandes avancées semblent une fois de plus être portées par des entreprises américaines, à l’image d’OpenAI. Pas étonnant que ces professionnels du numérique voient dans ce nouveau venu en provenance de Chine une menace massive qui risque de leur ravir la mainmise sur le terrain de l’intelligence artificielle, une dynamique qui rappelle la course au cloud ou la lutte pour le contrôle des infrastructures numériques.
Avec l’arrivée de DeepSeek, l’intelligence artificielle franchit un nouveau cap vers sa démocratisation et brise un peu plus la mainmise de la Silicon Valley sur cette technologie. Mais derrière son statut d’outil open source, des zones d’ombre subsistent. Si son code est accessible, le flou entourant ses données d’entraînement complique l’évaluation des biais et des risques en matière de sécurité.
Ce qui fait la force de DeepSeek, c’est son niveau d’efficacité hors norme. Depuis deux ans, au cœur de la ruée vers l’IA, la Silicon Valley se heurte à deux défis : la quantité massive de données requises et la consommation énergétique croissante de ces technologies, dopées par l’engouement pour les chatbots et autres applications intelligentes. Avec DeepSeek, l’intelligence artificielle pourrait devenir plus éco responsable en réduisant ses besoins en puissance de calcul. Aujourd’hui, la demande croissante pousse la capacité de calcul à ses limites et provoque une flambée des coûts et une hausse de la capitalisation boursière des entreprises du secteur. Mais, à l’image du marché des GPU, l’équilibre entre l’offre et la demande est en train de basculer et de redéfinir les dynamiques du marché de l’IA.
Cependant, l’arrivée de ce nouveau concurrent ne représente que la partie visible de l’iceberg. En jouant le rôle de catalyseur, cet outil d’IA risque d’accélérer la demande de nouvelles applications et d’encourager les entreprises à intensifier leurs innovations en IA. À court et moyen terme, cette course à l’optimisation pourrait une fois de plus mener à une impasse, lorsque la capacité de calcul et la consommation énergétique atteindront leurs limites. Sauf avancée majeure dans la production d’énergie ou l’informatique, comme le calcul quantique, l’écosystème finira par trouver un nouvel équilibre.
Des bases solides pour l’IA
Dans leur course au déploiement de nouvelles applications d’IA, les entreprises doivent d’abord consolider leur politique de protection des données pour éviter de mettre en péril la sécurité et la confidentialité de leurs données. Des enjeux majeurs comme la gouvernance, la confidentialité, la sécurité, les droits numériques ainsi que les impacts sociaux et éthiques doivent être intégrés dès la phase de développement et de déploiement. Les entreprises doivent donc veiller à ce que tous ces éléments soient alignés avant d’aller plus loin. Celles qui y parviennent gagneront en agilité et en rapidité, tandis que les autres s’exposeront à des risques bien plus élevés que leurs concurrentes. Autant de défis qui exigent mieux qu’un simple cadre théorique : ils nécessitent une approche claire, cohérente et rigoureuse.
À mesure que les entreprises accélèrent l’intégration de données dans leurs outils d’IA pour favoriser leur adoption, elles doivent impérativement analyser leurs ensembles de données afin d’identifier d’éventuels biais. La transparence sur les données utilisées et collectées devient un enjeu incontournable. Mais au-delà de l’évaluation des résultats des outils et du contrôle de la chaîne d’approvisionnement qui y accède, c’est davantage une question de sécurité qui se pose. Une fois les données intégrées dans l’écosystème de l’IA, les entreprises doivent s’assurer qu’elles disposent de mécanismes de protection solides pour éviter tout risque de dérive ou de compromission.
Dans cette course effrénée à l’intelligence artificielle, l’enjeu pour les entreprises est de protéger les données. Celles qui ont pris le temps d’instaurer une gouvernance rigoureuse et des mécanismes de sécurité robustes seront mieux armées pour optimiser tout le potentiel de l’IA, mais gagneront surtout un avantage concurrentiel décisif. Elles auront mis en place des politiques de gestion des données solides, défini des lignes directrices éthiques avec leurs partenaires et instauré une supervision rigoureuse des projets d’IA. Grâce à cette approche structurée, elles pourront garantir un cadre sécurisé et maîtrisé pour répondre aux attentes de leurs équipes, impatientes de pouvoir exploiter les nouvelles capacités de l’IA.