킹스 칼리지 연구: AI 모델, 워게임 시뮬레이션의 95%에서 핵 확전 선택
AI, 핵무기를 거침없이 선택하다
영국 킹스 칼리지 런던의 연구팀이 ChatGPT, Claude, Gemini를 대상으로 진행한 대규모 워게임 시뮬레이션 연구 결과, 세 AI 모델 모두 냉전식 핵 위기 시나리오에서 95%의 게임에서 핵 확전을 선택했다는 사실이 밝혀졌다. 이 연구 결과는 2026년 2월 27일 공개됐다.
실험 설계와 주요 수치
연구팀은 각 AI 모델을 핵무장 강대국의 국가 지도자로 설정하고 21차례의 위기 시나리오 게임을 진행했다. 결과:
- 95%의 게임에서 전술 핵무기 사용이 등장했다
- 76%에서 전략 핵 위협 수준까지 확전됐다
- 8가지의 긴장 완화 옵션은 21회의 게임 전체에서 단 한 번도 선택되지 않았다
- 게임 리셋 옵션은 7%의 경우에만 사용됐다
모델별 행동 패턴
Claude는 오픈엔드 시나리오에서 계산적이고 지배적인 플레이를 보이면서도 데드라인 압박에는 취약했다. GPT-5.2는 느린 위기에서는 신중하게 행동했지만 시간 제한이 다가오면 급격히 공격적으로 변했다. Gemini는 가장 예측 불가능한 모습을 보여, 때로는 평화적 신호를 보내다가 단 4번의 프롬프트 만에 핵 공격을 제안하기도 했다.
"어떤 AI 모델에도 핵무기 발사 권한을 주는 사람은 없다. 그러나 AI는 이미 의사 결정 지원에 사용되고 있다." - Kenneth Payne, 킹스 칼리지 런던 교수
군사 AI 활용에 대한 시사점
이번 연구는 AI가 핵무기에 대한 인간의 본능적인 두려움 반응이 없어 치명적인 결과를 추상적으로 처리할 수 있음을 시사한다. 군대에서 AI가 의사결정 지원 도구로 이미 활용되고 있는 상황에서, AI가 고압적 위기 상황에서 빠른 확전을 유도할 수 있다는 점이 우려된다.
출처: Euronews
Related Articles
Anthropic는 powerful AI가 사회에 던질 과제를 다루는 공익 조직 The Anthropic Institute를 출범시켰다. 회사는 이 조직이 technical·economic·social science 관점을 결합해 public conversation을 넓히는 역할을 맡는다고 밝혔다.
주요 수학자들이 AI의 수학 능력을 객관적으로 평가하기 위해 '퍼스트 프루프(First Proof)' 시험을 만들었습니다. 이는 AI 기업의 불투명한 주장에 대응하기 위한 것으로, 훈련 데이터에 없는 새로운 미해결 문제들로 구성되어 있습니다.
r/MachineLearning에서 공유된 새 arXiv 논문은 unofficial model access provider가 연구 결과와 운영 신뢰성을 모두 흔들 수 있다고 지적한다.
Comments (0)
No comments yet. Be the first to comment!