PyTorch Foundation、SafetensorsとHelionをhosted projectに追加
Original: Safetensors and Helion have joined PyTorch Foundation as foundation-hosted projects to secure model distribution for trusted agentic solutions and simplify kernel development across the open source AI ecosystem. PyTorch Foundation CTO Matt White to Noah Bovenizer at The Stack: “Having portable formats that work across different frameworks is extremely important to be able to ship and move models around. And then Helion makes things more accessible for folks that want to do custom kernel development.” Safetensors and Helion join PyTorch, @vllm_project, @DeepSpeedAI, and @raydistributed as foundation hosted projects. Read Noah Bovenizer’s coverage at The Stack here: https://www.thestack.technology/hugging-faces-safetensors-metas-helion-join-pytorch-foundation/ #PyTorch #OpenSource #AI #Safetensors #Helion View original →
PyTorchは2026年4月9日のX postで、SafetensorsとHelionがPyTorch Foundationのfoundation-hosted projectに加わったと発表した。PyTorchは今回の追加について、trusted agentic solutions向けのmodel distributionをより安全にし、open-source AI ecosystem全体のkernel developmentを簡素化するためだと説明している。両projectは今後、PyTorch、vLLM、DeepSpeed、Rayと並んでfoundationのhosted-project structureに置かれる。
2つの追加projectは異なる層を担当する。SafetensorsはHugging Faceのtensor serialization formatで、pickle系approachより安全なloading modelを提供することで、model weightsを移動するときのarbitrary code-execution riskを抑えたい現場で重要度を高めてきた。HelionはMetaのmachine-learning kernels向けdomain-specific languageで、custom kernel developmentをより多くの開発者に開くことを狙う。PyTorchが引用したThe Stackのcoverageでは、Foundation CTOのMatt Whiteが、frameworkをまたいで動くportable formatはmodelを配布・移動するうえで極めて重要であり、Helionはcustom kernel開発をより身近にすると述べている。
本当の見出しはproject数ではなくgovernance
より大きな意味はproject数そのものではなくgovernanceにある。model transportとkernel toolingの中核部品を中立的なfoundation構造へ移すことで、重要なinfrastructureを特定vendorの付属品ではなく共有public railsとして扱いやすくなる。agent systemsを構築するチームにとっては、model exchangeのより安全なdefaultと、performance-critical kernelsをめぐるより広いcontributor baseという2つの効果が期待できる。open-source AIの競争は、もはやmodelsだけでなく、formats、runtimes、governance modelsでも進んでいることを示す発表だ。
Related Articles
Redditで広がったNetflixのVOIDは、videoからobjectだけでなく、そのobjectが生んだinteractionまで除去しようとするopen research modelだ。CogVideoXベースの2-pass pipeline、Gemini+SAM2によるmask生成、40GB+ VRAM要件が技術的な核心になっている。
Astral の 2026年4月8日の post が HN で注目されたのは、supply-chain security を抽象論ではなく CI/CD の運用規律として示したからだ。危険な GitHub Actions trigger の禁止、action の hash pinning、<code>permissions: {}</code> からの開始、secret の隔離、GitHub App と Trusted Publishing の組み合わせが要点になった。
Cohereは2026年3月28日、Transcribeがreal-world noise環境でspeech recognition accuracyの新しい基準を示すと述べ、試用リンクを共有した。関連するHugging Face資料ではApache 2.0の2B-parameter・14-language ASR modelとして位置づけられ、別のWebGPU demoはこのmodelがbrowser上でローカル動作することを示している。
Comments (0)
No comments yet. Be the first to comment!