Anthropic、Linux Foundationの1,250万ドル規模オープンソース保安投資に参加
Original: Linux Foundation Announces $12.5 Million in Grant Funding from Leading Organizations to Advance Open Source Security View original →
Anthropicは2026年3月17日のX投稿で、AIが動く基盤であるオープンソースソフトウェアを守るため、Linux Foundationを支援すると表明した。この投稿は同日に出たLinux Foundationのプレスリリースと連動しており、Anthropic、AWS、GitHub、Google、Google DeepMind、Microsoft、OpenAIが総額1,250万ドルを拠出するとしている。
Linux Foundationによれば、資金はAlpha-OmegaとOpen Source Security Foundation(OpenSSF)を通じて運用される。狙いは単にvulnerabilityをより多く見つけることではなく、AIによって広範なpackageやprojectでsecurity issueの発見と報告が加速する時代に、maintainerへ持続可能なtool、workflow、運用支援を届けることにある。同日公開のGoogleの投稿も、課題を同じ方向で説明している。焦点は脅威の特定そのものから、maintainerの現場で実際に修正へつなげることへ移りつつある。
このタイミングにも意味がある。model providerやsecurity研究者がvulnerability discoveryを自動化するほど、maintainer側にはAI-generated reportの増加、triage負荷の上昇、より速いremediation要求が押し寄せる。Linux Foundationは、問題発見の速度と、volunteerまたは十分な資源を持たないmaintainerが対応できる速度の間に大きなギャップがあると説明する。AnthropicのX投稿自体は短いが、より広い発表を見ると、業界がこれを単独企業のsecurity programではなく共有インフラの問題として扱っていることが分かる。
AI業界の文脈では、この発表は抽象的なmodel safetyの議論から一歩進み、AI製品とインターネット全体を支えるsoftware supply chainへ視線を移した点で重要だ。計画が機能すれば、Alpha-OmegaとOpenSSFは単に資金を受け取るだけでなく、AIネイティブな保安ツールをmaintainerの日々の実務workflowへ届ける主要チャネルになっていく可能性がある。
Related Articles
Anthropicは2026年3月6日、Claudeが発見した脆弱性向けのcoordinated vulnerability disclosure原則を公表した。基本の90日開示、実被害が進行するcritical bug向けの7日対応、patch後45日の技術詳細猶予など、AI時代を意識した運用ルールが盛り込まれている。
Anthropicは The Anthropic Institute を立ち上げ、powerful AI が雇用、法制度、governance に与える影響を扱う専任組織を整えた。Jack Clark の下で Frontier Red Team、Societal Impacts、Economic Research を束ね、Washington, DC の policy 拠点も拡大する。
NVIDIAとThinking Machines Labは2026年3月10日、次世代 NVIDIA Vera Rubin system を少なくとも1 gigawatt規模で導入する長期提携を発表した。training・serving system の共同設計に加え、NVIDIAによる strategic investment も含まれる。
Comments (0)
No comments yet. Be the first to comment!