Anthropic의 Dario Amodei는 국방부의 AI 보호 조치 중단 요구를 거부했습니다.
Anthropic의 가장 중요한 최근 CEO 성명은 공개된 정책 노선입니다. 2026년 2월 26일 Dario Amodei는 Anthropic이 정부 사업을 잃을 위험이 있는 경우에도 대규모 국내 감시 및 완전 자율 무기와 관련된 보호 장치를 제거하라는 국방부의 요구를 받아들일 수 없다고 말했습니다.
Anthropic이 말한 것
Amodei는 공식 성명에서 Anthropic이 미국 국가 안보 사용을 위한 모델을 적극적으로 배포했으며 AI를 사용하여 민주주의를 수호하는 것을 지원한다고 말했습니다. 그러나 그는 또한 회사가 두 가지 구체적인 보호 조치를 취하지 않을 것이라고 말했습니다. 하나는 대규모 국내 감시에 대한 것이고 다른 하나는 오늘날의 최첨단 AI 시스템으로 구동되는 완전 자율 무기에 대한 것입니다. 그의 노선은 명백했다: Anthropic은 "선한 양심으로" 그 요청을 받아들일 수 없었다.
발언이 특이한 이유
이것은 추상적인 안전 브랜딩이 아닙니다. 더 넓은 사용을 허용하라는 전쟁부의 직접적인 압력을 설명하면서 회사가 지원하지 않는 사용 사례를 공개적으로 언급하는 CEO입니다. Anthropic의 후속 고객 성명서는 개인 사용자와 상업 고객은 영향을 받지 않는 반면 정부 계약자는 지정이 공식화되면 전쟁부 계약 작업에 대해서만 영향을 받을 것이라고 말했습니다.
외부 보고가 그것을 어떻게 구성했는지
AP통신은 이번 대치 상황이 무제한적인 군사적 사용을 두고 벌이는 싸움이라고 보도했으며, 미 국방부는 Anthropic에게 거부할 경우 계약을 잃을 수 있다고 경고했습니다. 이는 기본적인 이해 관계를 확증합니다. 이것은 단순한 블로그 논쟁이 아니라 실제 조달 및 정책 논쟁입니다. 그 의미는 앤트로픽이 국가안보시장에 안주하면서도 좁은 안전 경계를 지키려고 한다는 점이다.
TRH 읽기
운영자에게 있어 이는 개척자 AI 회사가 더 이상 모델만 배송하는 것이 아니기 때문에 중요합니다. 그들은 해당 모델을 사용할 수 있는 위치, 계약 및 책임에 대한 경계를 정의하고 있습니다. 이러한 선택은 기업의 신뢰, 규제 태세, 민감한 시스템에 AI를 배포하는 비용을 형성하게 됩니다.