Token Robin Hood
Antropisch17 april 20268 minuten

Dario Amodei van Anthropic zegt nee tegen de eis van het Pentagon om AI-beveiligingen te laten vallen

De meest materiële recente CEO-verklaring van Anthropic is een publieke beleidslijn. Op 26 februari 2026 zei Dario Amodei dat Anthropic de eisen van het Pentagon niet kon accepteren om de waarborgen die verband houden met massaal binnenlands toezicht en volledig autonome wapens af te schaffen, zelfs niet onder de dreiging overheidsactiviteiten te verliezen.

Wat is er gebeurdAmodei verwierp de eisen om Claude enig rechtmatig gebruik toe te staan ​​zonder deze waarborgen.
Officiële redeneringAnthropic trok lijnen rond massale binnenlandse surveillance en volledig autonome wapens.
Waarom het ertoe doetHet geschil brengt de commerciële adoptie van AI, de militaire vraag en de veiligheidspositionering in direct conflict.

Wat antropisch zegt

In een officiële verklaring zei Amodei dat Anthropic actief modellen heeft ingezet voor het gebruik van de Amerikaanse nationale veiligheid en het gebruik van AI ondersteunt om democratieën te verdedigen. Maar hij zei ook dat het bedrijf twee specifieke waarborgen niet zou laten vallen: een tegen massaal binnenlands toezicht en een andere tegen volledig autonome wapens die worden aangedreven door de hedendaagse AI-systemen. Zijn zin was duidelijk: Anthropic kon het verzoek niet "met een goed geweten" aanvaarden.

Waarom de verklaring ongebruikelijk is

Dit is geen abstracte veiligheidsbranding. Het is een CEO die publiekelijk gebruiksscenario’s noemt die het bedrijf niet zal ondersteunen, terwijl hij de directe druk van het Ministerie van Oorlog beschrijft om breder gebruik toe te staan. In de vervolgklantverklaring van Anthropic stond dat individuele gebruikers en commerciële klanten onaangetast bleven, terwijl overheidscontractanten alleen zouden worden getroffen voor contractwerk van het Department of War als de aanwijzing formeel zou worden.

Hoe externe berichtgeving dit heeft ingekaderd

AP rapporteerde de impasse als een gevecht over onbeperkt militair gebruik, waarbij het Pentagon Anthropic waarschuwde dat het zijn contract zou kunnen verliezen als het weigerde. Dat bevestigt de fundamentele inzet: dit is een echt aanbestedings- en beleidsgeschil, niet alleen maar een blogargument. Het belang is dat Anthropic probeert een smalle veiligheidsgrens te behouden en tegelijkertijd op de nationale veiligheidsmarkt blijft.

TRH lezen

Voor operators is dit van belang omdat grens-AI-bedrijven niet langer alleen maar verzendmodellen zijn. Ze definiëren grenzen waar deze modellen kunnen worden gebruikt, onder welke contracten en met welke verplichtingen. Deze keuzes zullen het vertrouwen van bedrijven, de regelgeving en de kosten van de inzet van AI in gevoelige systemen bepalen.

Bronnen