OpenAI、Department of War契約の詳細を公表 cloud-only運用と国内監視制限を明文化
Original: Our agreement with the Department of War View original →
発表の概要
OpenAIは2026年2月28日、Department of Warとclassified環境で高度AIシステムを運用するための契約に合意したと公表した。さらに2026年3月2日の更新で、U.S. personsに対するdomestic surveillanceを意図的に行わないことを明確化する文言を契約に追加したと説明している。
公開文では、Fourth Amendment、National Security Act of 1947、FISA Act of 1978などの適用法令と整合する形で、U.S. personsまたはnationalsへの意図的監視を禁じる旨が記載された。また、NSAのようなDepartment of War intelligence agenciesでの利用は本契約の対象外で、別契約が必要だとしている。
提示された3つのred line
OpenAIは本件の原則として、mass domestic surveillanceの禁止、autonomous weaponsを独立的に指揮する用途の禁止、social creditのようなhigh-stakes automated decisionsの禁止を挙げた。これらは単なる利用規約ではなく、複数層で担保するとしている。
技術・運用面では、deploymentをcloud-onlyに限定し、edge配備は行わないと明言。safety stackの運用権限はOpenAI側に残し、clearedなOpenAI engineerおよびsafety/alignment researcherをin-the-loopで関与させる構造を示した。
契約条項と統治の論点
公開された条項にはDoD Directive 3000.09(2023-01-25)が含まれ、autonomousおよびsemi-autonomous systemsについて、配備前のverification、validation、testingを要求する枠組みが再確認されている。OpenAIはFAQで、契約違反があれば契約解除が可能だとも述べている。
加えて、Department of Warがfrontier AI labs、cloud providers、政策・運用コミュニティを含むworking groupを招集する予定とも記載された。これはprivacyとnational securityに関する継続対話の制度化を示す動きといえる。
なぜ重要か
この発表は、国家安全保障領域でのAI導入において、競争軸がモデル性能だけでなくdeployment governanceに移っていることを示す。どこで動かすか、誰がガードレールを制御するか、人間の監督をどう組み込むかが、実際のリスク管理を左右するためだ。今後は、公共調達や大規模導入でも、法令参照と運用制約を具体化した契約設計がより重視される可能性が高い。
出典: OpenAI発表
Related Articles
Anthropicは、powerful AIが社会にもたらす課題を扱う公益組織The Anthropic Instituteを立ち上げた。technical・economic・social scienceの知見を組み合わせ、より広いpublic conversationに資する活動を進めるとしている。
Anthropicは3月4日にDepartment of Warから供給網リスク指定の通知を受領したとし、適用範囲は限定的だとして司法判断を求める方針を示した。
OpenAIはCodex SecurityをCodex web経由でresearch previewとして展開すると発表した。project contextを踏まえて、より高信頼な脆弱性検出とpatch提案を行うapplication security agentという位置づけだ。
Comments (0)
No comments yet. Be the first to comment!