今回のメモで、モデル蒸留は利用規約違反の話から国家安全保障レベルの技術窃取へ格上げされた。ホワイトハウスは、中国などの外国主体が数万規模のプロキシと jailbreaking 手法で米国の frontier AI を吸い出し、はるかに安いコストで一部ベンチマーク上は競合に見える製品を出せると警告した。
#ai-policy
RSS Feedr/artificialの反応は怖いheadlineだけではなかった。HB1455/SB1493の“knowingly training artificial intelligence”がcompanion appだけでなく普通のchatbot UXまで届くのか、という不安が中心だった。公開bill trackerでは、法案はまだ進行中で、House Judiciaryは2026年4月14日に通過勧告を出している。
AnthropicはMar 11, 2026、The Anthropic Instituteを立ち上げ、frontier AIが経済、法制度、安全保障、社会へ与える影響を本格的に研究すると発表した。model builderの内部観測を、より公開された研究と対話へつなげる試みだ。
Anthropicは、powerful AIが社会にもたらす課題を扱う公益組織The Anthropic Instituteを立ち上げた。technical・economic・social scienceの知見を組み合わせ、より広いpublic conversationに資する活動を進めるとしている。
Anthropicは3月4日にDepartment of Warから供給網リスク指定の通知を受領したとし、適用範囲は限定的だとして司法判断を求める方針を示した。
OpenAIは2026年2月28日、Department of Warとのclassified環境向けAI配備契約を公表し、3月2日にdomestic surveillance制限文言を追加したと説明した。cloud-only deployment、safety stackの保持、cleared人員の関与を主要ガードレールとして示している。
Anthropicが、軍事監視プログラムへの協力を拒否した後に受けた国防総省のサプライチェーンリスク指定に対し、法的に争うと発表しました。AI企業が米国政府を訴えるのは前例のない動きです。
米財務省が、トランプ大統領の大統領令に従いAnthropicのAI製品の利用を全面終了すると発表。国防総省との衝突が連邦機関全体に波及しています。
キングス・カレッジ・ロンドンの研究チームがChatGPT、Claude、Geminiを核武装大国のリーダーとして模擬危機に投入したところ、21回のゲームの95%で核使用を選択し、緊張緩和オプションは一度も選ばれなかったことが判明した。
トランプ政権が連邦機関によるAnthropicのAI使用を禁止し、国防総省がAnthropicを「サプライチェーンリスク」に指定したことを受け、Anthropicは法廷での争いを宣言した。一方、OpenAIは国防総省と協力契約を締結した。
トランプ大統領がすべての連邦機関にAnthropicの製品使用を禁止した後、Claude アプリが米App Storeの無料アプリランキングで1位を獲得した。1月以降、無料ユーザー数は60%以上増加し、日次の新規登録数は過去最高を記録した。
トランプ大統領はすべての連邦機関にAnthropicの製品使用を即時停止するよう命じた。国防総省はAnthropicをサプライチェーンリスクに指定し、OpenAIは数時間後に同様の安全策を含む契約を締結した。