Anthropic、国防総省の申し出を拒否:「良心上受け入れられない」
Original: Anthropic rejects latest Pentagon offer: 'We cannot in good conscience accede to their request' View original →
Anthropicが一線を引く
AI安全性企業のAnthropicがアメリカ国防総省(Department of Defense)の最新の申し出を公式に拒否した。CNNの報道によると、同社の声明「良心上彼らの要求に応じることはできない(We cannot in good conscience accede to their request)」は珍しい形の政府申し出への公開拒否であり、r/artificialで923ポイントを獲得してAIコミュニティ全体で大きな注目を集めた。
背景
この状況はAI企業と政府機関の複雑で急速に進化する関係を反映している。トランプ政権が連邦機関にAnthropicのAI技術の使用を即時停止するよう命じた直後、AnthropicのClaudeモデルがイランへの米軍空爆で使用されていたという報道が出た。国防総省はその後Anthropicに申し出をしたが、Anthropicはこれを拒否した。
軍事AIの倫理
AnthropicはAI安全性を設立当初から中核的な組織価値としてきた。Dario Amodei CEOは自律型兵器システムの使用に公然と反対する立場を取ってきており、今回の国防総省の申し出の拒否はその表明された原則と一致している。
より広い意味合い
この決定は、AI企業が強力な技術を構築するにつれて直面する根本的な問いを浮き彫りにする:どのようなアプリケーションを支援し、どの要求を拒否するのか?Anthropicの公開姿勢は意義ある先例を設定し、AI企業が重要なシステムにより深く組み込まれていく中で適用する必要のある倫理的枠組みの可視性を高めた。
Related Articles
Axiosによると、NSAはAnthropicのMythos Previewを利用している。一方でPentagon幹部は同社をsupply-chain riskと見ており、AI safetyの制限と連邦政府のcybersecurity需要が衝突している。
争点は、機密システムに入った後もモデル供給企業が統制主体なのかという一点にある。APが伝えた4月22日の控訴審書面でAnthropicは、Claudeは国防総省の機密ネットワークに配備された後は自社で操作できないと主張し、政府のサプライチェーンリスク認定に真正面から反論した。
Anthropic CEOのDario AmodeiがCBSインタビューで、国防総省向けに構築したカスタムClaudeモデルが軍事作戦を革命的に加速させたと明かした。機密クラウドに配備されたこのモデルは公開版より1〜2世代先の技術水準だという。
Comments (0)
No comments yet. Be the first to comment!