Anthropic、国防総省の申し出を拒否:「良心上受け入れられない」
Original: Anthropic rejects latest Pentagon offer: 'We cannot in good conscience accede to their request' View original →
Anthropicが一線を引く
AI安全性企業のAnthropicがアメリカ国防総省(Department of Defense)の最新の申し出を公式に拒否した。CNNの報道によると、同社の声明「良心上彼らの要求に応じることはできない(We cannot in good conscience accede to their request)」は珍しい形の政府申し出への公開拒否であり、r/artificialで923ポイントを獲得してAIコミュニティ全体で大きな注目を集めた。
背景
この状況はAI企業と政府機関の複雑で急速に進化する関係を反映している。トランプ政権が連邦機関にAnthropicのAI技術の使用を即時停止するよう命じた直後、AnthropicのClaudeモデルがイランへの米軍空爆で使用されていたという報道が出た。国防総省はその後Anthropicに申し出をしたが、Anthropicはこれを拒否した。
軍事AIの倫理
AnthropicはAI安全性を設立当初から中核的な組織価値としてきた。Dario Amodei CEOは自律型兵器システムの使用に公然と反対する立場を取ってきており、今回の国防総省の申し出の拒否はその表明された原則と一致している。
より広い意味合い
この決定は、AI企業が強力な技術を構築するにつれて直面する根本的な問いを浮き彫りにする:どのようなアプリケーションを支援し、どの要求を拒否するのか?Anthropicの公開姿勢は意義ある先例を設定し、AI企業が重要なシステムにより深く組み込まれていく中で適用する必要のある倫理的枠組みの可視性を高めた。
Related Articles
Anthropicは2026年3月5日、Department of Warから供給網リスク指定の通知を受けたと発表した。対象範囲は限定的だと説明しつつ、法的争訟と移行支援を並行する方針を示している。
Anthropic CEOのDario AmodeiがCBSインタビューで、国防総省向けに構築したカスタムClaudeモデルが軍事作戦を革命的に加速させたと明かした。機密クラウドに配備されたこのモデルは公開版より1〜2世代先の技術水準だという。
OpenAIが米国国防総省との契約を締結した後、「Cancel ChatGPT」運動がソーシャルメディアを超えて主流化した。AnthropicがClaudeの自律兵器・市民監視への適用を拒否したことと対照的で、多くのユーザーがClaude乗り換えを選択した。
Comments (0)
No comments yet. Be the first to comment!