Anthropic는 powerful AI가 사회에 던질 과제를 다루는 공익 조직 The Anthropic Institute를 출범시켰다. 회사는 이 조직이 technical·economic·social science 관점을 결합해 public conversation을 넓히는 역할을 맡는다고 밝혔다.
#ai-policy
Anthropic은 3월 4일 국방부 서한으로 공급망 위험 지정이 통보됐다고 밝히며, 적용 범위는 제한적이고 법원 대응에 나서겠다고 발표했다.
OpenAI는 2026년 2월 28일 Department of War와의 분류 환경 AI 배치 계약을 공개했고, 3월 2일 국내 감시 금지 문구를 추가했다고 밝혔다. 회사는 cloud-only 배포, safety stack 통제, 인가된 OpenAI 인력 참여를 핵심 안전 장치로 제시했다.
Anthropic이 트럼프 행정부의 국방부로부터 받은 '공급망 위험' 지정에 법적으로 대응하겠다고 발표했습니다. 군사 감시 프로그램 지원 거부에 따른 정부의 보복성 조치에 맞서는 전례 없는 행보입니다.
트럼프 행정부의 행정명령에 따라 미국 재무부가 Anthropic AI 제품 사용을 전면 중단한다고 발표했습니다. 국방부와의 갈등이 연방 기관 전체로 확산되는 양상입니다.
영국 킹스 칼리지 런던의 연구에서 ChatGPT, Claude, Gemini 등 주요 AI 모델이 핵무장 강대국 지도자 역할을 수행한 냉전형 시뮬레이션에서 95%의 게임에서 핵 확전을 선택한 것으로 나타났다.
트럼프 행정부가 연방 기관의 Anthropic AI 사용을 금지하고 국방부가 Anthropic을 '공급망 위험'으로 지정한 데 이어, Anthropic이 이에 법적으로 맞서겠다고 밝혔다. 반면 OpenAI는 국방부와 협력 계약을 체결했다.
Anthropic이 트럼프 행정부의 금지 조치를 받은 이후 Claude 앱이 미국 앱스토어 무료 앱 1위에 올랐다. 일일 신규 가입자 수가 역대 최고치를 기록하며, 한 달 만에 무료 사용자가 60% 이상 증가했다.
트럼프 대통령이 모든 연방 기관에 Anthropic 제품 사용을 즉시 중단하라고 명령했다. 국방부는 Anthropic을 공급망 위협으로 지정했고, OpenAI는 수 시간 만에 국방부와 계약을 체결하며 반사이익을 챙겼다.
인도 뉴델리에서 열린 AI 임팩트 서밋에서 아다니(1,000억)·릴라이언스(1,100억) 등 인도 기업들이 AI 인프라에 총 2,100억 달러 투자를 선언했다. 마이크로소프트도 글로벌 사우스 AI 인프라에 500억 달러를 투자한다고 밝혔다.
Anthropic은 2026년 2월 26일 성명에서 미국 국방·정보기관 협력은 확대하되, mass domestic surveillance와 fully autonomous weapons는 수용하지 않겠다고 밝혔다.
Anthropic는 2026-02-26 X 게시물에서 Department of War 관련 공식 입장을 공개했다. 회사는 국방 협력은 지속하되 mass domestic surveillance와 fully autonomous weapons에는 현재 기준에서 동의하지 않는다고 밝혔다.