OpenAI、米国防省の機密ネットワークへのAI展開で合意 — 自律型兵器禁止原則を含む
Original: OpenAI Reaches Agreement with U.S. Department of War to Deploy AI on Classified Networks View original →
機密ネットワークへのAI展開合意
OpenAIのCEOサム・アルトマンは2026年2月28日、Xで「今夜、米国防省(Department of War)との機密ネットワークへのAIモデル展開合意に達した」と発表した。この発表は、トランプ政権が競合のAnthropicを連邦システムから締め出した数時間後に行われた。
核心的なAI安全原則
アルトマンは今回の合意にOpenAIの最重要安全原則2つが含まれていると強調した。一つ目は国内大規模監視の禁止、二つ目は自律型兵器システムを含む武力行使における人間の責任原則だ。国防省もこれらの原則に同意し、法令と政策に反映させた。
技術的安全装置と展開方式
OpenAIはモデルの正常動作を確保するための技術的安全装置を構築し、現地展開エンジニア(FDE)を派遣してモデルの安全性を支援する。展開はクラウドネットワーク上でのみ実施される。
業界全体への同条件の適用要請
アルトマンは国防省に対し、「全てのAI企業に同じ条件を提示してほしい。誰もが受け入れるべき内容だと思う」と要請した。この合意は、AI企業が政府の防衛パートナーシップにおいて安全原則をどう維持できるかの新たな先例となった。
Related Articles
OpenAI CEO サム・アルトマンが、トランプ政権によるアンソロピック制裁の数時間後、米国防総省とのAIモデル展開契約を発表した。契約には大規模監視禁止と自律兵器に関する安全原則が明記されている。
OpenAI CEO サム・アルトマンが、トランプ政権によるアンソロピック制裁の数時間後、米国防総省とのAIモデル展開契約を発表した。契約には大規模監視禁止と自律兵器に関する安全原則が明記されている。
OpenAIは2026年2月の悪用対策報告で、中国起点の7件のオペレーションに関連するアカウントを停止したと発表した。活動はサイバー関連、秘密裏の影響工作、詐欺にまたがり、全体として悪用比率は依然低いとしている。
Comments (0)
No comments yet. Be the first to comment!