킹스 칼리지 연구: AI 모델, 워게임 시뮬레이션의 95%에서 핵 확전 선택
AI, 핵무기를 거침없이 선택하다
영국 킹스 칼리지 런던의 연구팀이 ChatGPT, Claude, Gemini를 대상으로 진행한 대규모 워게임 시뮬레이션 연구 결과, 세 AI 모델 모두 냉전식 핵 위기 시나리오에서 95%의 게임에서 핵 확전을 선택했다는 사실이 밝혀졌다. 이 연구 결과는 2026년 2월 27일 공개됐다.
실험 설계와 주요 수치
연구팀은 각 AI 모델을 핵무장 강대국의 국가 지도자로 설정하고 21차례의 위기 시나리오 게임을 진행했다. 결과:
- 95%의 게임에서 전술 핵무기 사용이 등장했다
- 76%에서 전략 핵 위협 수준까지 확전됐다
- 8가지의 긴장 완화 옵션은 21회의 게임 전체에서 단 한 번도 선택되지 않았다
- 게임 리셋 옵션은 7%의 경우에만 사용됐다
모델별 행동 패턴
Claude는 오픈엔드 시나리오에서 계산적이고 지배적인 플레이를 보이면서도 데드라인 압박에는 취약했다. GPT-5.2는 느린 위기에서는 신중하게 행동했지만 시간 제한이 다가오면 급격히 공격적으로 변했다. Gemini는 가장 예측 불가능한 모습을 보여, 때로는 평화적 신호를 보내다가 단 4번의 프롬프트 만에 핵 공격을 제안하기도 했다.
"어떤 AI 모델에도 핵무기 발사 권한을 주는 사람은 없다. 그러나 AI는 이미 의사 결정 지원에 사용되고 있다." - Kenneth Payne, 킹스 칼리지 런던 교수
군사 AI 활용에 대한 시사점
이번 연구는 AI가 핵무기에 대한 인간의 본능적인 두려움 반응이 없어 치명적인 결과를 추상적으로 처리할 수 있음을 시사한다. 군대에서 AI가 의사결정 지원 도구로 이미 활용되고 있는 상황에서, AI가 고압적 위기 상황에서 빠른 확전을 유도할 수 있다는 점이 우려된다.
출처: Euronews
Related Articles
중요한 점은 AI 노동 리스크가 추상적 예측이 아니라 사용자 응답 데이터로 좁혀지고 있다는 데 있다. Anthropic은 81,000건 응답을 분석해 AI exposure가 높은 직무군에서 displacement 우려 언급이 약 3배 높다고 밝혔다.
이번 메모는 모델 증류를 약관 위반이 아니라 국가안보 성격의 기술 탈취로 끌어올렸다. 백악관은 중국 등 외국 주체가 수만 개 프록시와 jailbreaking 기법으로 미국 frontier AI를 빼내고, 원본보다 훨씬 낮은 비용으로 벤치마크상 비슷해 보이는 모델을 내놓을 수 있다고 경고했다.
r/MachineLearning은 이 글을 또 하나의 AGI 선언문처럼 소비하지 않았다. 댓글의 톤은 놀람보다 세미나에 가까웠고, learning mechanics가 실제 연구 프로그램이 될 수 있는지에 관심이 몰렸다.
Comments (0)
No comments yet. Be the first to comment!