OpenAI, Department of War 계약 공개…클라우드 전용 배치·국내 감시 금지 조항 명시
Original: Our agreement with the Department of War View original →
발표 내용과 일정
OpenAI는 2026년 2월 28일, Department of War와 분류(classified) 환경에서의 고급 AI 시스템 배치를 위한 계약 체결 내용을 공개했다. 이어 2026년 3월 2일 업데이트에서, 계약 문구에 U.S. persons 대상 domestic surveillance 금지를 더 명확히 반영했다고 설명했다.
공지에 따르면 추가된 조항은 Fourth Amendment, National Security Act of 1947, FISA Act of 1978 등 관련 법률 준수를 전제로 하며, U.S. persons 또는 nationals에 대한 의도적 domestic surveillance를 금지한다는 내용을 담는다. 또한 OpenAI는 해당 서비스가 NSA 같은 Department of War intelligence agencies에 사용되지 않으며, 해당 사용은 별도 계약이 필요하다고 적시했다.
OpenAI가 제시한 3가지 red line
OpenAI는 이번 협력의 기준으로 세 가지 red line을 제시했다. 첫째 mass domestic surveillance 금지, 둘째 autonomous weapons를 독립적으로 지휘하는 용도 금지, 셋째 social credit와 같은 high-stakes automated decisions 금지다. 회사는 이 원칙을 단순 usage policy가 아니라 다층 구조로 강제하겠다고 밝혔다.
문서에서 강조된 기술적 구조는 cloud-only deployment다. OpenAI는 edge 배치가 아니며 safety stack을 OpenAI가 직접 운영하고, classifier 업데이트를 포함한 검증 역량을 유지한다고 설명했다. 또한 cleared forward-deployed OpenAI engineers와 safety/alignment researchers가 "in the loop"로 참여한다고 밝혔다.
계약 문구와 거버넌스 포인트
공개된 계약 인용문은 DoD Directive 3000.09(2023-01-25)를 언급하며, autonomous and semi-autonomous systems에서 rigorous verification, validation, testing 요구사항을 재확인한다. OpenAI는 정부가 계약 조건을 위반하면 계약 해지가 가능하다는 원칙도 FAQ에서 밝혔다.
또한 Department of War가 frontier AI labs, cloud providers, 정책·운영 커뮤니티가 참여하는 working group을 소집할 계획이라고 밝히면서, 향후 privacy와 national security 관련 논의를 위한 포럼이 마련될 가능성을 시사했다.
왜 중요한가
이번 건은 국가안보 분야 AI 도입에서 "모델 제공"보다 "배치 아키텍처와 통제권"이 핵심 규제 지점이라는 점을 보여준다. 같은 모델이라도 cloud-only 여부, safety stack 운영 주체, human-in-the-loop 구조에 따라 위험 프로파일이 달라진다. 따라서 시장의 경쟁 포인트도 성능뿐 아니라 계약 구조의 집행 가능성, 법적 참조의 구체성, 사후 감사 가능성으로 이동하고 있다.
운영 관점에서도 시사점이 분명하다. 공공영역 AI 계약은 "어떤 모델을 쓸 것인가"보다 "어떤 환경에서, 누가, 어떤 통제권으로 운용할 것인가"를 먼저 설계해야 한다는 것이다. OpenAI가 제시한 cloud-only, 인력 참여, 계약 조항 기반 통제 구조는 향후 다른 국가·기관 조달에서도 템플릿으로 참조될 가능성이 있다. 특히 법적 문구와 기술 아키텍처를 함께 고정하는 방식은 분쟁 시 해석 여지를 줄이고, 위험이 큰 사용 사례에서 책임 경계를 명확히 하는 데 유리하다.
출처: OpenAI 공지문
Related Articles
Anthropic는 powerful AI가 사회에 던질 과제를 다루는 공익 조직 The Anthropic Institute를 출범시켰다. 회사는 이 조직이 technical·economic·social science 관점을 결합해 public conversation을 넓히는 역할을 맡는다고 밝혔다.
Anthropic은 3월 4일 국방부 서한으로 공급망 위험 지정이 통보됐다고 밝히며, 적용 범위는 제한적이고 법원 대응에 나서겠다고 발표했다.
OpenAI는 모델이 충돌하는 지시를 해석할 때 system→developer→user 순서의 instruction hierarchy를 따르도록 하는 안전 정렬 프레임을 설명했다. 회사 공개 평가에서 불확실한 요청에 대한 거절 비중이 약 59%에서 약 97%로 개선됐다고 밝혔다.
Comments (0)
No comments yet. Be the first to comment!