Accueil Géopolotique Ultimatum du Pentagone à Anthropic : l’IA prise entre sécurité nationale et...

Ultimatum du Pentagone à Anthropic : l’IA prise entre sécurité nationale et garde-fous éthiques

Le département de la Défense américain a adressé un ultimatum à Anthropic afin d’assouplir les restrictions d’usage de son modèle Claude dans un cadre militaire. Ce bras de fer met en lumière une tension croissante entre impératifs stratégiques et engagements éthiques des fournisseurs d’intelligence artificielle.

Le Pentagone a demandé à Anthropic de lever certaines limitations intégrées à son modèle Claude, afin d’en permettre une utilisation plus large dans des environnements opérationnels militaires. Selon plusieurs médias américains, le secrétaire à la Défense Pete Hegseth aurait fixé une échéance à la fin février 2026. À défaut d’évolution, l’entreprise s’exposerait à la perte d’un contrat significatif avec le gouvernement fédéral et à un risque d’exclusion de certains programmes stratégiques.

Au cœur du différend figurent les garde-fous techniques et contractuels mis en place par Anthropic. L’éditeur s’est positionné dès sa création sur une approche dite responsable de l’IA, en limitant notamment les usages liés à la surveillance de masse, à certaines applications offensives ou aux systèmes d’armes autonomes sans supervision humaine. Du point de vue du Pentagone, ces restrictions constituent un frein à l’intégration rapide de capacités d’intelligence artificielle dans les chaînes décisionnelles et analytiques de la défense.

La dimension stratégique du dossier s’est encore renforcée avec l’évocation possible du Defense Production Act, un texte qui permet à l’exécutif américain de contraindre des entreprises privées à soutenir l’effort de défense nationale. Si un tel levier était activé, il marquerait un tournant majeur dans la relation entre l’État fédéral et les fournisseurs d’IA avancée.

Au-delà du cas d’Anthropic, l’affaire illustre une évolution plus large. Les technologies d’IA générative sont désormais considérées comme des actifs stratégiques, au même titre que les infrastructures critiques ou les capacités cyber. Pour les acteurs de la cybersécurité et de la gouvernance numérique, notamment en Europe, ce bras de fer pose une question centrale : jusqu’où un fournisseur peut-il maintenir ses engagements éthiques face à des exigences de souveraineté et de sécurité nationale ? L’issue du dossier pourrait influencer durablement les conditions contractuelles, les standards de conformité et la marge d’autonomie réelle des éditeurs d’IA travaillant avec des États.