Selon plusieurs sources Google aurait conclu un accord avec le département de la Défense américain pour déployer ses modèles d’intelligence artificielle dans des systèmes classifiés. Une étape supplémentaire dans l’implication des géants technologiques, qui suscite en interne des inquiétudes plus concrètes, liées à l’usage réel de ces technologies une fois déployées.
Un accord pour intégrer l’IA dans des systèmes sensibles
Google aurait signé un accord avec le Pentagone pour fournir ses modèles d’intelligence artificielle dans des environnements classifiés du Department of Defense, selon des informations publiées par The Information et reprises par Reuters.
Le périmètre va au-delà de la mise à disposition d’outils accessibles grâce au cloud public. Les modèles, dont ceux issus de la famille Gemini, peuvent être intégrés directement dans des systèmes gouvernementaux dédiés. Ils sont susceptibles d’être utilisés pour des tâches d’analyse de données, de traitement de l’information ou d’aide à la décision.
Le cadre contractuel autorise un usage pour « toute mission gouvernementale légale », sans précision publique sur les cas d’usage concrets. Reuters indique également que Google ne dispose pas d’un droit de veto sur la manière dont ces technologies peuvent être employées une fois déployées.
Un usage difficile à suivre une fois les modèles intégrés
Le déploiement dans des environnements classifiés introduit une contrainte technique particulière. Les systèmes concernés fonctionnent de manière isolée, ce qui limite fortement les possibilités de supervision par l’éditeur. Une fois intégrés, les modèles peuvent être exploités sans retour direct vers Google. L’entreprise ne dispose alors que d’une visibilité très limitée, voire inexistante selon les configurations, sur les usages réels, les données traitées ou les résultats produits.
Cette situation marque une différence nette avec les déploiements classiques dans le cloud, où les fournisseurs conservent généralement une capacité de suivi et d’ajustement. Ici, l’IA devient un composant intégré dans une infrastructure fermée, dont le fonctionnement échappe en grande partie à son concepteur.
Des inquiétudes internes qui se précisent
En interne, les réactions ne portent plus uniquement sur la question de l’IA militaire de manière générale. Elles se concentrent davantage sur ce manque de visibilité. Selon plusieurs médias anglo-saxons, des salariés estiment ne pas être en mesure de contrôler l’usage qui sera fait de ces modèles dans des environnements classifiés. Une lettre signée par plusieurs centaines d’employés appelle l’entreprise à éviter des applications jugées « inhumaines ou extrêmement dangereuses » et à assumer une responsabilité sur les usages possibles de ses technologies. Des prises de parole individuelles vont dans le même sens. Un chercheur affilié à DeepMind a notamment exprimé publiquement son malaise face à cette évolution, jugeant la situation préoccupante.




