PyTorch Foundation, Safetensors와 Helion 편입... open-source AI 기반 도구 거버넌스 확대
Original: Safetensors and Helion have joined PyTorch Foundation as foundation-hosted projects to secure model distribution for trusted agentic solutions and simplify kernel development across the open source AI ecosystem. PyTorch Foundation CTO Matt White to Noah Bovenizer at The Stack: “Having portable formats that work across different frameworks is extremely important to be able to ship and move models around. And then Helion makes things more accessible for folks that want to do custom kernel development.” Safetensors and Helion join PyTorch, @vllm_project, @DeepSpeedAI, and @raydistributed as foundation hosted projects. Read Noah Bovenizer’s coverage at The Stack here: https://www.thestack.technology/hugging-faces-safetensors-metas-helion-join-pytorch-foundation/ #PyTorch #OpenSource #AI #Safetensors #Helion View original →
PyTorch는 2026년 4월 9일 X post에서 Safetensors와 Helion이 PyTorch Foundation의 foundation-hosted project로 편입됐다고 밝혔다. PyTorch는 이번 조치를 trusted agentic solutions를 위한 model distribution 보안 강화와 open-source AI ecosystem 전반의 kernel development 단순화 차원으로 설명했다. 회사는 두 프로젝트가 이제 PyTorch, vLLM, DeepSpeed, Ray와 함께 foundation의 hosted-project 구조 아래에 놓인다고 덧붙였다.
두 프로젝트는 서로 다른 층위를 담당한다. Safetensors는 Hugging Face가 만든 tensor serialization format으로, pickle 기반 방식보다 더 안전한 loading model을 제공해 model weight를 옮길 때 arbitrary code-execution risk를 줄이는 방향에서 주목받아 왔다. Helion은 Meta가 만든 machine-learning kernel용 domain-specific language로, custom kernel 개발의 진입 장벽을 낮추는 데 초점이 있다. PyTorch가 인용한 The Stack 보도에서 Foundation CTO Matt White는 framework 간에 portable format이 있어야 model을 쉽게 이동·배포할 수 있고, Helion은 custom kernel 작업을 더 많은 개발자에게 열어 준다고 말했다.
핵심은 프로젝트 수보다 거버넌스
더 큰 의미는 프로젝트 개수 자체보다 거버넌스에 있다. model transport와 kernel tooling의 핵심 부품을 중립적 foundation 구조로 옮기면, 중요한 인프라가 특정 vendor 부가 기능이 아니라 공유 공공 레일처럼 작동할 가능성이 커진다. agent system을 만드는 팀 입장에서는 model exchange의 더 안전한 기본값과 performance-critical kernel 주변의 더 넓은 기여자 기반이라는 두 가지 효과를 기대할 수 있다. 이번 발표는 open-source AI 경쟁이 이제 model뿐 아니라 format, runtime, governance model에서도 벌어지고 있음을 다시 보여준다.
Related Articles
Reddit에서 확산된 Netflix VOID는 video에서 물체뿐 아니라 그 물체가 만든 interaction까지 제거하려는 open research model이다. CogVideoX 기반 2-pass pipeline, Gemini+SAM2 mask 생성, 40GB+ VRAM 요구사항이 기술적 핵심이다.
Astral의 2026년 4월 8일 글이 HN에서 주목받은 이유는 공급망 보안을 추상론이 아니라 CI/CD 운영 규칙으로 풀어냈기 때문이다. 위험한 GitHub Actions trigger 금지, action hash pinning, <code>permissions: {}</code> 기본화, secret 격리, GitHub App과 Trusted Publishing 조합이 핵심으로 꼽혔다.
2026년 3월 15일 r/MachineLearning에서는 GraphZero v0.2 소개 글이 334 points와 27 comments를 모았다. post와 GitHub README는 SSD mmap, custom binary format, nanobind bridge를 이용해 100M+ node graph를 consumer hardware에서 다루는 방식을 설명한다.
Comments (0)
No comments yet. Be the first to comment!