Dario Amodei van Anthropic zegt nee tegen de eis van het Pentagon om AI-beveiligingen te laten vallen
De meest materiële recente CEO-verklaring van Anthropic is een publieke beleidslijn. Op 26 februari 2026 zei Dario Amodei dat Anthropic de eisen van het Pentagon niet kon accepteren om de waarborgen die verband houden met massaal binnenlands toezicht en volledig autonome wapens af te schaffen, zelfs niet onder de dreiging overheidsactiviteiten te verliezen.
Wat antropisch zegt
In een officiële verklaring zei Amodei dat Anthropic actief modellen heeft ingezet voor het gebruik van de Amerikaanse nationale veiligheid en het gebruik van AI ondersteunt om democratieën te verdedigen. Maar hij zei ook dat het bedrijf twee specifieke waarborgen niet zou laten vallen: een tegen massaal binnenlands toezicht en een andere tegen volledig autonome wapens die worden aangedreven door de hedendaagse AI-systemen. Zijn zin was duidelijk: Anthropic kon het verzoek niet "met een goed geweten" aanvaarden.
Waarom de verklaring ongebruikelijk is
Dit is geen abstracte veiligheidsbranding. Het is een CEO die publiekelijk gebruiksscenario’s noemt die het bedrijf niet zal ondersteunen, terwijl hij de directe druk van het Ministerie van Oorlog beschrijft om breder gebruik toe te staan. In de vervolgklantverklaring van Anthropic stond dat individuele gebruikers en commerciële klanten onaangetast bleven, terwijl overheidscontractanten alleen zouden worden getroffen voor contractwerk van het Department of War als de aanwijzing formeel zou worden.
Hoe externe berichtgeving dit heeft ingekaderd
AP rapporteerde de impasse als een gevecht over onbeperkt militair gebruik, waarbij het Pentagon Anthropic waarschuwde dat het zijn contract zou kunnen verliezen als het weigerde. Dat bevestigt de fundamentele inzet: dit is een echt aanbestedings- en beleidsgeschil, niet alleen maar een blogargument. Het belang is dat Anthropic probeert een smalle veiligheidsgrens te behouden en tegelijkertijd op de nationale veiligheidsmarkt blijft.
TRH lezen
Voor operators is dit van belang omdat grens-AI-bedrijven niet langer alleen maar verzendmodellen zijn. Ze definiëren grenzen waar deze modellen kunnen worden gebruikt, onder welke contracten en met welke verplichtingen. Deze keuzes zullen het vertrouwen van bedrijven, de regelgeving en de kosten van de inzet van AI in gevoelige systemen bepalen.