米NIST-CAISI、Google・Microsoft・xAIと最前線AIの出荷前評価協定を締結
米国立標準技術研究所(NIST)傘下のAI標準革新センター(CAISI)は2026年5月5日、Google DeepMind、Microsoft、xAIとフロンティアAIの出荷前評価に関する協定を締結したと発表した。三社は公開前のAIモデルを政府が評価できるよう提供することになる。
評価の範囲
CAISIは「フロンティアAIの能力をより正確に評価し、AIセキュリティの水準を高めるため、出荷前評価と標的研究を実施する」と説明。評価は機密環境で行われ、サイバーセキュリティ・生物安全保障・化学兵器リスクなど安全保障関連の能力と危険性を重点的に検証する。
既存協定の拡張
CAISIは2024年にOpenAIとAnthropicとの協定をすでに締結しており、現在まで40件以上の事前評価を完了している。今回の協定で、米国の主要フロンティアAI開発企業全体をカバーする官民AI安全評価体制が整った。
意義
AI規制緩和を掲げて発足したトランプ政権が事前評価体制を強化している点は注目に値する。国家安全保障の観点からのAIリスク管理が党派を超えた課題であることを示している。詳細はCNBCを参照。
Related Articles
欧州議会と理事会は5月7日、AI法の修正・簡素化に関する政治的合意に達した。高リスクAIの順守期限を最大2年延長し、AI生成による性的コンテンツの禁止条項を新たに追加した。
EU議会とEU理事会は5月7日、AI法改正「デジタルオムニバス」の暫定合意に達した。高リスクAIシステムの適用期限が最長2年延長され、非同意性的深偽コンテンツ生成AIの新たな禁止条項が追加された。
米国AI基準革新センター(CASI)がGoogle DeepMind、Microsoft、xAIと合意し、新型フロンティアAIモデルの国家安全保障リスクを公開前に評価することになった。Anthropicの自律型ハッキングモデル「Claude Mythos」への懸念が政策転換を後押しした。
Comments (0)
No comments yet. Be the first to comment!