Anthropic, 국방부 제안 거부: "양심상 받아들일 수 없다"
Original: Anthropic rejects latest Pentagon offer: 'We cannot in good conscience accede to their request' View original →
Anthropic의 강경한 입장
AI 안전 기업 Anthropic이 미국 국방부(Department of Defense)의 최신 제안을 공식 거부했다. CNN 보도에 따르면, Anthropic은 "양심상 그들의 요청에 응할 수 없다(We cannot in good conscience accede to their request)"는 성명을 발표했다. r/artificial에서 923점을 기록한 이 소식은 AI 커뮤니티에서 큰 반향을 일으켰다.
배경
이 사건은 미국 정부와 AI 기업들 간의 복잡한 관계를 드러낸다. 트럼프 행정부가 연방기관에 Anthropic AI 기술 사용을 즉각 중단하라고 명령한 직후, Anthropic의 Claude 모델이 이란에 대한 미군 공습에서 활용되었다는 보도가 나왔다. 펜타곤은 이후 Anthropic에 일종의 협력 제안을 했으나, Anthropic은 이를 거부했다.
AI 윤리와 군사 AI의 충돌
Anthropic은 설립 초기부터 AI 안전성을 핵심 가치로 내세워온 기업이다. Dario Amodei CEO는 자율 무기 사용에 대한 명확한 반대 입장을 공개적으로 표명해왔다. 이번 국방부 제안 거부는 Anthropic의 이러한 원칙적 입장과 일관된다.
AI 기업과 군사 기관의 관계
이 사건은 AI 기업들이 강력한 기술을 보유하게 됨에 따라 직면하는 근본적인 윤리적 딜레마를 보여준다. 어떤 용도로 기술을 제공할 것인지, 어떤 요청을 거부할 것인지에 대한 결정은 단순한 비즈니스 문제가 아니라 AI 개발의 방향성을 결정하는 중요한 이슈다. Anthropic의 이번 결정은 AI 안전 커뮤니티에서 원칙을 지킨 용기 있는 선택으로 평가받고 있다.
Related Articles
Anthropic은 2026년 3월 5일 성명을 통해 Department of War의 공급망 리스크 지정 통보를 받았다고 밝혔다. 회사는 조치의 적용 범위가 제한적이라고 설명하면서도 법적 대응과 전환 지원을 병행하겠다고 했다.
앤트로픽 CEO 다리오 아모데이가 CBS 인터뷰에서 국방부를 위해 구축된 맞춤형 Claude 모델이 군사 작전을 혁명적으로 가속시켰다고 밝혔다. 이 모델은 공개 버전보다 1~2세대 앞선 기술로 기밀 클라우드에 배포됐다.
OpenAI가 미국 국방부와 계약을 체결하자 '#ChatGPT 취소' 운동이 주류로 확산됐다. Anthropic이 자국민 대량 감시와 자율무기 적용을 거부한 것과 대조적으로, OpenAI는 군사 분야와 손을 잡아 사용자들의 이탈을 촉발했다.
Comments (0)
No comments yet. Be the first to comment!