OpenAI、Department of War契約の詳細を公表 cloud-only運用と国内監視制限を明文化
Original: Our agreement with the Department of War View original →
発表の概要
OpenAIは2026年2月28日、Department of Warとclassified環境で高度AIシステムを運用するための契約に合意したと公表した。さらに2026年3月2日の更新で、U.S. personsに対するdomestic surveillanceを意図的に行わないことを明確化する文言を契約に追加したと説明している。
公開文では、Fourth Amendment、National Security Act of 1947、FISA Act of 1978などの適用法令と整合する形で、U.S. personsまたはnationalsへの意図的監視を禁じる旨が記載された。また、NSAのようなDepartment of War intelligence agenciesでの利用は本契約の対象外で、別契約が必要だとしている。
提示された3つのred line
OpenAIは本件の原則として、mass domestic surveillanceの禁止、autonomous weaponsを独立的に指揮する用途の禁止、social creditのようなhigh-stakes automated decisionsの禁止を挙げた。これらは単なる利用規約ではなく、複数層で担保するとしている。
技術・運用面では、deploymentをcloud-onlyに限定し、edge配備は行わないと明言。safety stackの運用権限はOpenAI側に残し、clearedなOpenAI engineerおよびsafety/alignment researcherをin-the-loopで関与させる構造を示した。
契約条項と統治の論点
公開された条項にはDoD Directive 3000.09(2023-01-25)が含まれ、autonomousおよびsemi-autonomous systemsについて、配備前のverification、validation、testingを要求する枠組みが再確認されている。OpenAIはFAQで、契約違反があれば契約解除が可能だとも述べている。
加えて、Department of Warがfrontier AI labs、cloud providers、政策・運用コミュニティを含むworking groupを招集する予定とも記載された。これはprivacyとnational securityに関する継続対話の制度化を示す動きといえる。
なぜ重要か
この発表は、国家安全保障領域でのAI導入において、競争軸がモデル性能だけでなくdeployment governanceに移っていることを示す。どこで動かすか、誰がガードレールを制御するか、人間の監督をどう組み込むかが、実際のリスク管理を左右するためだ。今後は、公共調達や大規模導入でも、法令参照と運用制約を具体化した契約設計がより重視される可能性が高い。
出典: OpenAI発表
Related Articles
OpenAIはAI-enabledな児童性的搾取への対応を目的とする policy blueprint を4月8日に公開した。法制度の更新、provider reporting の改善、AI system への safety-by-design 実装を一体で進める枠組みだ。
OpenAIの4月21日のsystem cardは、ChatGPT Images 2.0のsafety tradeoffを具体的な数字で示した。Thinking modeではfinal blocking前のpolicy-violating image比率が6.7%で、より写実的なimage generation、provenance、biorisk対策が一つのdeployment課題になっている。
Stanford HAIの新レポートは、AIの詰まりどころが性能そのものより測定とガバナンスに移ったことを示す。2025年の米民間AI投資は$285.9 billionまで膨らむ一方、文書化された AI incident は233件から362件へ増えた。
Comments (0)
No comments yet. Be the first to comment!