NIST・CAISI、Google DeepMind・Microsoft・xAIと事前AI安全評価協定を締結
公開前評価が制度として確立
米国国立標準技術研究所(NIST)傘下の人工知能標準革新センター(CAISI、旧AI安全研究所)は2026年5月5日、Google DeepMind・Microsoft・xAIとフロンティアAIモデルの国家安全保障テスト協定を締結したと発表した。OpenAIとAnthropicはトランプ政権のAI行動計画に合わせて既存協定を再交渉した。
協定に基づき、CAISIは公開前評価・公開後評価・AIセキュリティリスク研究を実施する。モデルは機密環境で評価され、開発者は安全対策を削減したバージョンを提出することもある。
評価対象:サイバー・バイオ・化学兵器
CAISIはサイバーセキュリティ・バイオセキュリティ・化学兵器といった「実証可能なリスク」に評価を絞り込んでいる。Lutnick商務長官の指示のもとCAISIはAI産業界の主要政府窓口に指定されており、未公開モデルを含む40件以上の評価を完了している。
AISIからCAISIへ——安全からスタンダードへの転換
Biden政権が設立したAI安全研究所(AISI)はTrump政権下で「CAISI」に改称された。安全(safety)重視から標準・革新(standards and innovation)重視へと任務が再定義された。英国AI安全研究所との国際協力は継続される。
ソース: NIST、SiliconAngle
Related Articles
米国防総省が5月1日、Amazon、Google、Microsoft、NVIDIA、OpenAI、SpaceX、Reflection AI 7社と機密ネットワークへのAI展開協定を締結。自律型兵器への安全基準を主張したAnthropicは対象外となった。
米国防総省がOpenAI・Google・Microsoft・AWS・Oracle・Nvidia・SpaceXと機密軍事ネットワーク(IL6/IL7)へのAI展開契約を締結した。安全ガイドラインの維持を主張したAnthropicは「サプライチェーンリスク」として排除された。
マイクロソフト・メタ・アルファベット・アマゾンの第1四半期決算が出揃い、AI向け設備投資の合計が7250億ドルを超える見通しとなった。前年4100億ドルからほぼ倍増となる。
Comments (0)
No comments yet. Be the first to comment!