Dario Amodei d'Anthropic dit non à la demande du Pentagone d'abandonner les mesures de protection contre l'IA
La récente déclaration la plus importante du PDG d'Anthropic est une ligne politique publique. Le 26 février 2026, Dario Amodei a déclaré qu'Anthropic ne pouvait pas accepter les demandes du Pentagone de supprimer les garanties liées à la surveillance intérieure de masse et aux armes entièrement autonomes, même sous la menace de perdre des affaires gouvernementales.
Ce qu'Anthropique a dit
Dans un communiqué officiel, Amodei a déclaré qu'Anthropic avait activement déployé des modèles destinés à la sécurité nationale américaine et soutenait l'utilisation de l'IA pour défendre les démocraties. Mais il a également déclaré que l'entreprise n'abandonnerait pas deux garanties spécifiques : une contre la surveillance intérieure de masse et une autre contre les armes entièrement autonomes alimentées par les systèmes d'IA d'aujourd'hui. Sa ligne était explicite : Anthropic ne pouvait pas « en bonne conscience » accepter la demande.
Pourquoi la déclaration est inhabituelle
Il ne s’agit pas d’une image de marque abstraite en matière de sécurité. Il s'agit d'un PDG qui nomme publiquement des cas d'utilisation que l'entreprise ne soutiendra pas tout en décrivant la pression directe du ministère de la Guerre pour autoriser une utilisation plus large. La déclaration de suivi du client d'Anthropic indiquait que les utilisateurs individuels et les clients commerciaux n'étaient pas affectés, tandis que les entrepreneurs gouvernementaux ne seraient affectés pour les travaux sous contrat du ministère de la Guerre que si la désignation devenait formelle.
Comment les reportages extérieurs l’ont encadré
AP a rapporté que l'impasse était une lutte pour une utilisation militaire sans restriction, le Pentagone avertissant Anthropic qu'il pourrait perdre son contrat s'il refusait. Cela corrobore les enjeux fondamentaux : il s’agit d’un véritable différend en matière de marchés publics et de politique, et pas seulement d’un débat de blog. Ce qui est important, c’est qu’Anthropic essaie de préserver une frontière étroite en matière de sécurité tout en restant sur le marché de la sécurité nationale.
Lecture TRH
Pour les opérateurs, cela est important car les sociétés d’IA frontalières ne sont plus seulement des modèles d’expédition. Ils définissent les limites des domaines dans lesquels ces modèles peuvent être utilisés, en vertu de quels contrats et avec quelles responsabilités. Ces choix façonneront la confiance des entreprises, la posture réglementaire et le coût du déploiement de l’IA dans les systèmes sensibles.