Dario Amodei von Anthropic sagt Nein zur Forderung des Pentagons, die KI-Sicherheitsmaßnahmen aufzugeben
Die wichtigste jüngste Aussage des CEO von Anthropic ist eine öffentliche Politiklinie. Am 26. Februar 2026 sagte Dario Amodei, Anthropic könne die Forderungen des Pentagons, Schutzmaßnahmen im Zusammenhang mit der Massenüberwachung im Inland und vollständig autonomen Waffen aufzuheben, nicht akzeptieren, selbst unter der Gefahr, Regierungsgeschäfte zu verlieren.
Was Anthropic gesagt hat
In einer offiziellen Erklärung sagte Amodei, Anthropic habe aktiv Modelle für die nationale Sicherheit der USA eingesetzt und unterstütze den Einsatz von KI zur Verteidigung von Demokratien. Er sagte aber auch, dass das Unternehmen zwei spezifische Schutzmaßnahmen nicht aufgeben werde: eine gegen Massenüberwachung im Inland und eine andere gegen vollständig autonome Waffen, die von den heutigen Grenz-KI-Systemen angetrieben werden. Seine Aussage war eindeutig: Anthropic konnte die Anfrage nicht „guten Gewissens“ annehmen.
Warum die Aussage ungewöhnlich ist
Dies ist kein abstraktes Sicherheits-Branding. Es handelt sich um einen CEO, der öffentlich Anwendungsfälle benennt, die das Unternehmen nicht unterstützen wird, und gleichzeitig den direkten Druck des Kriegsministeriums beschreibt, eine breitere Nutzung zu ermöglichen. In der anschließenden Kundenerklärung von Anthropic heißt es, dass einzelne Nutzer und gewerbliche Kunden nicht betroffen seien, während staatliche Auftragnehmer nur dann von Auftragsarbeiten des Kriegsministeriums betroffen wären, wenn die Benennung formell würde.
Wie die externe Berichterstattung es umrahmte
AP berichtete von der Pattsituation als Kampf um die uneingeschränkte militärische Nutzung, wobei das Pentagon Anthropic warnte, dass es seinen Vertrag verlieren könnte, wenn es sich weigerte. Das bestätigt die Grundaussage: Es handelt sich hier um einen echten Beschaffungs- und Richtlinienstreit, nicht nur um ein Blog-Argument. Die Bedeutung besteht darin, dass Anthropic versucht, eine enge Sicherheitsgrenze beizubehalten und gleichzeitig auf dem Markt der nationalen Sicherheit zu bleiben.
TRH lesen
Für Betreiber ist dies von Bedeutung, da Pionier-KI-Unternehmen nicht mehr nur Modelle liefern. Sie definieren Grenzen dafür, wo diese Modelle verwendet werden können, im Rahmen welcher Verträge und mit welchen Verbindlichkeiten. Diese Entscheidungen werden das Vertrauen der Unternehmen, die Regulierungslage und die Kosten für die Bereitstellung von KI in sensiblen Systemen beeinflussen.