OpenAI, Department of War 계약 세부 공개… domestic surveillance·autonomous weapons 금지선 명문화
Original: Our agreement with the Department of War View original →
OpenAI가 발표한 내용
2026년 2월 28일, OpenAI는 Department of War와 classified environment에서 advanced AI system을 배치하기 위한 계약 내용을 공개했다. 이어 2026년 3월 2일에는 Department와의 추가 논의를 반영한 업데이트도 붙였다. OpenAI의 설명에 따르면 이번 계약은 배치 구조, 기술적 safeguard, 계약 문구, human oversight를 함께 명시한다는 점에서 기존 군사용 AI 배치보다 더 구체적인 틀을 제시한다.
OpenAI는 세 가지 red line을 반복해서 강조했다. 첫째, mass domestic surveillance를 위한 사용 금지. 둘째, autonomous weapons systems를 직접 지휘하는 데 쓰는 것 금지. 셋째, social credit와 같은 high-stakes automated decisions에 쓰는 것 금지다. 또한 OpenAI는 Pentagon과의 논의가 특정 한 회사만의 경로가 아니라 다른 AI 기업에도 열려 있어야 한다고 요청했다고 밝혔다.
가드레일이 작동하는 방식
- Cloud-only deployment: OpenAI는 자사가 운영하는 safety stack 위에서만 시스템을 배치하며, guardrails를 제거한 model이나 안전 미조정 model은 제공하지 않는다고 밝혔다.
- Edge deployment 배제: autonomous lethal weapons 위험을 키울 수 있는 edge device 위에는 모델을 배치하지 않는다고 명시했다.
- 계약상 제한: OpenAI가 공개한 계약 문구는, 법이나 정책이 human control을 요구하는 상황에서 시스템이 autonomous weapons를 독립적으로 지휘하지 않으며, human approval이 필요한 다른 high-stakes decision도 대신하지 않는다고 적고 있다.
- Human in the loop: clearance를 받은 OpenAI engineer와 safety·alignment 연구진이 실제 운영 과정에 관여한다.
2026년 3월 2일 업데이트는 특히 surveillance 관련 부분을 더 명확히 했다. OpenAI는 Department가 자사 원칙에 동의했으며, 도구가 미국인에 대한 domestic surveillance에 사용되지 않는다고 밝혔다. 여기에는 commercially acquired personal or identifiable information을 통한 추적도 포함된다. 또한 해당 서비스는 NSA 같은 Department of War intelligence agency에서 사용되지 않으며, 그런 사용은 별도의 새 계약이 있어야 한다고 적었다.
왜 중요한가
frontier AI lab이 군사용 AI 계약의 운영 세부를 이렇게까지 공개적으로 설명하는 일은 드물다. OpenAI는 이번 발표에서 계약서 뒤편의 법률 문구만이 아니라, deployment architecture와 compliance 자체를 제품 설계의 일부처럼 다루고 있다.
그래서 이 발표는 단순히 Pentagon 한 건의 계약에 그치지 않는다. 앞으로 국가안보 분야 AI 배치를 둘러싼 논쟁이 “참여하느냐 마느냐”만이 아니라, 어떤 기술적·계약적·거버넌스 제약 아래 참여하느냐로 이동할 수 있음을 보여주는 공개 기준점이 된다.
출처: OpenAI
Related Articles
샘 알트먼은 OpenAI가 미 국방부(Department of War)와 기밀 네트워크에 AI 모델을 배치하기로 합의했다고 밝혔다. 국내 대규모 감시 금지와 자율 무기 시스템에 대한 인간 통제권 유지가 합의 핵심 원칙이다.
OpenAI는 2026년 2월 28일 X에서 미 국방부 기밀 환경에 고급 AI 시스템을 배치하기로 합의했다고 밝혔다. 후속 게시물에서는 클라우드 배치, 인가된 인력 개입, 계약상 보호장치를 포함한 다층 안전 접근을 강조했다.
OpenAI Japan이 March 17, 2026 teen 대상 generative AI 보호 원칙을 묶은 Japan Teen Safety Blueprint를 공개했다. risk-based age estimation, under-18 safety policy, parental controls, well-being 설계를 Japan 시장에서 단계적으로 강화하겠다는 내용이다.
Comments (0)
No comments yet. Be the first to comment!