OpenAIとAnthropic、サイバー型モデルを議会へ 規制論が一段深まる
Original: Exclusive: OpenAI, Anthropic meet with House committee over advanced cyber models View original →
米議会は frontier AI の cyber risk を、もう研究室の遠い話としては見ていない。Axiosは4月28日、OpenAIとAnthropicがそれぞれ米下院国土安全保障委員会のスタッフに対し、新しい cyber-capable model の意味と critical infrastructure 防衛への含意を非公開で説明したと報じた。
重要なのは、モデル名より能力の中身だ。Axiosによれば、Anthropicは重大な security flaw を素早く見つけて悪用できる力を理由に Mythos Preview の一般公開を見送っている。OpenAIは GPT-5.4-Cyber を段階的に出す方針を選んだ。ここから読めるのは明快だ。両社は、近い将来の政策リスクを抽象的な superintelligence 論ではなく、reconnaissance、自動化された vulnerability discovery、exploit 開発の加速といった実務的 misuse に見ている。
説明の場も象徴的だ。Axiosは committee aide を引用し、2つの briefing は木曜日に separate classified session として行われたと伝えた。OpenAIは先週、ホワイトハウスに加え、上下院委員会とも複数回 briefing を実施したと説明した。Anthropicも、model capability と national security implication について congressional staff を定期的に brief していると述べた。議論では、中国が米国製AIモデルを industrial-scale で distill し copy しているとする最近の White House memo にも触れたという。cyber capability と model security が同じ政策トラックで語られ始めたわけだ。
政治の温度も変わってきた。委員長 Andrew Garbarino は、industry と government の連携が defensive use と米国AIの保護の両方に不可欠だと述べた。一方で、別の jailbroken model demo を見た議員たちは、その能力を恐ろしいと表現し、議会理解が技術進化に追いついていないと語った。これは重要だ。今後のAI法制が consumer chatbot の不満より、national security committee が直視する具体的な misuse path から組み立てられる可能性が高いからだ。
より大きい変化は心理的な枠組みの転換にある。病院、電力網、パイプラインのように人手が薄い重要インフラの運営者が frontier model によって圧迫され得ると lawmakers が見始めれば、AI governance は遠い倫理セミナーではなく homeland security の案件になる。今後の access tier、red-teaming、開示ルールの形は、この視点でかなり変わりそうだ。元記事は こちら。
Related Articles
r/singularityで広がったAISIの評価は、Claude Mythos Previewがexpert CTFだけでなくmulti-stage cyber rangeでも一段進んだことを示した。重要なのは漠然とした危険論ではなく、32-stepのcorporate attack simulationをend to endで完了した最初のmodelが出たという点だ。
Reuters の分析は、Mythos が銀行に突きつけているのは遠い将来の risk ではなく、今すぐの patch timing だと見る。米国、Canada、Britain の officials はすでに金融機関と会合を持ち、Anthropic は high severity と critical severity の脆弱性を thousands 単位で見つけたと説明している。
OpenAIが defensive cybersecurity 向けに調整した GPT-5.4-Cyber を、認証済みの個人 defender と vetted team に開き始めた。注目点は、TAC が小さな試験運用から数千人規模の defender と数百チームへ広がることだ。
Comments (0)
No comments yet. Be the first to comment!