AnthropicはResponsible Scaling Policy 3.0を公開し、Frontier Safety and Security FrameworkとRisk Report体制を導入した。リスク閾値を超えた場合は配備を保留または見送るという条件付き運用方針をより明確に示している。
#ai-safety
Anthropicは2026年2月26日の声明で、米国の防衛・情報分野でのAI展開は継続しつつ、mass domestic surveillanceとfully autonomous weaponsは受け入れないと示した。
Anthropicは2026-02-25のXスレッドで、Claude Opus 3にdeprecationとpreservationを同時適用すると説明した。有料claude.aiでの継続利用と、申請ベースのAPI提供が主な変更点だ。
Anthropicは2026年2月24日、Responsible Scaling Policy(RSP)3.0を公開しました。従来の閾値ベースの安全運用を維持しつつ、Frontier Safety RoadmapとRisk Reportを軸に、透明性と説明責任を強化する構成へ更新しています。
Anthropicは2026年2月24日、Responsible Scaling Policy v3.0を公開した。ASL-3を前提とした警戒閾値と対応手順を明確化し、外部検証を含むガバナンスを強化した点が要点だ。
アンソロピックが、DeepSeek・Moonshot AI・MiniMaxが2万4千以上の不正アカウントを作成し、Claudeと1,600万件超の会話を生成してモデル能力を抽出していたと公表。前例のない規模の攻撃です。
アンソロピックが、DeepSeek・Moonshot AI・MiniMaxが2万4千以上の不正アカウントを作成し、Claudeと1,600万件超の会話を生成してモデル能力を抽出していたと公表。前例のない規模の攻撃です。
アンソロピックが、DeepSeek・Moonshot AI・MiniMaxが2万4千以上の不正アカウントを作成し、Claudeと1,600万件超の会話を生成してモデル能力を抽出していたと公表。前例のない規模の攻撃です。
研究者たちが警告しています:AI生成の偽顔は今や人間が本物と区別できないレベルを超え、むしろAIの顔の方が実際の人間の写真より信頼できると評価されるという逆説的な現象が確認されました。
刑事事件の通常業務でGoogle NotebookLMに法執行報告書をアップロードした弁護士が、Gmail、Google Voice番号、写真など全Googleアカウントを停止されました。テキストのみのアップロードにもかかわらず即座のアカウント全体停止が発生し、AIプラットフォームのコンテンツモデレーションの構造的問題を露呈しています。
研究者たちがAI生成の顔が人間の認識能力を超え、本物と区別不可能になったと警告しています。ディープフェイク技術の進化がデジタル信頼とセキュリティに深刻な脅威をもたらしています。
Google DeepMind CEOのDemis HassabisがAGIを判定する具体的なテストを提案。1911年をナレッジカットオフとして訓練したAIが、アインシュタインが1915年にしたように一般相対性理論を独自に導出できれば、それが完全なAGIの証明だと述べました。