NVIDIA, GPU DRA Driver를 Kubernetes community에 기증
Original: Advancing Open Source AI, NVIDIA Donates Dynamic Resource Allocation Driver for GPUs to Kubernetes Community View original →
NVIDIA는 2026년 3월 24일 KubeCon Europe에서 중요한 infrastructure 발표를 내놨다. GPU용 NVIDIA Dynamic Resource Allocation(DRA) Driver를 Cloud Native Computing Foundation에 기증하겠다는 것이다. 실질적으로는 GPU orchestration의 핵심 소프트웨어 일부를 vendor 단독 통제에서 Kubernetes community 중심의 공동 거버넌스로 옮기겠다는 의미다.
이 발표가 중요한 이유는 Kubernetes가 이미 많은 enterprise AI workload의 기본 control plane이 됐기 때문이다. model training과 inference가 container 환경으로 더 많이 이동할수록 GPU 관리는 단순한 hardware 배치 문제가 아니라, cluster 단위의 scheduling, isolation, resource sharing 문제로 바뀐다. NVIDIA는 DRA Driver를 이 계층을 더 투명하고 더 programmable하게 만드는 표준 인터페이스로 밀고 있다.
NVIDIA가 강조한 개선 포인트
- NVIDIA Multi-Process Service와 Multi-Instance GPU를 활용한 더 정교한 GPU 공유
- NVIDIA Multi-Node NVlink 같은 multi-node interconnect 구성을 native하게 지원하는 확장성
- workload 변화에 따라 hardware allocation을 동적으로 다시 구성할 수 있는 유연성
- compute, memory, interconnect 조건을 더 세밀하게 지정할 수 있는 정밀한 요청 방식
NVIDIA는 이번 기증을 open AI infrastructure 확대 전략과도 연결했다. 회사는 CNCF Confidential Containers community와 함께 Kata Containers에 GPU support를 추가했다고 밝혔고, 이를 통해 GPU 가속 workload에도 confidential computing 수준의 격리를 적용할 수 있다고 설명했다. 또한 KAI Scheduler가 CNCF Sandbox 단계에 들어갔고, GPU cluster용 AI workload orchestration API인 Grove가 llm-d inference stack과 통합되고 있다고 덧붙였다.
협력사 범위도 눈에 띈다. NVIDIA는 AWS, Broadcom, Canonical, Google Cloud, Microsoft, Nutanix, Red Hat, SUSE가 관련 기능을 함께 밀고 있다고 밝혔다. 이것이 곧바로 Kubernetes 기반 AI 운영을 단순하게 만들지는 않겠지만, 적어도 GPU orchestration 패턴이 proprietary tooling에 갇히지 않고 vendor 간 공통 표준으로 수렴할 가능성은 높아진다.
AI platform 팀 관점에서 보면 이번 뉴스의 핵심은 단일 driver 자체보다 거버넌스 변화다. 핵심 GPU scheduling 구성요소가 vendor-neutral foundation으로 옮겨가면 운영자, 연구자, software vendor가 같은 인터페이스 위에서 도구를 쌓기 쉬워진다. AI cluster 규모가 빠르게 커지고 infrastructure 복잡성이 계속 높아지는 시장에서 이런 표준화는 raw silicon 성능만큼 중요한 경쟁력이 될 수 있다. 원문: NVIDIA Blog.
Related Articles
2026년 3월 18일 NVIDIA NemoClaw 관련 Hacker News 게시물은 231 points와 185 comments를 기록했다. 이 alpha 프로젝트는 NVIDIA OpenShell과 Agent Toolkit 위에 OpenClaw를 얹어 policy control과 cloud-routed inference를 갖춘 sandboxed environment에서 always-on assistant를 실행하도록 설계됐다.
NVIDIA가 2026년 3월 23일 Vera CPU를 공개했다. 회사는 이를 agentic AI와 reinforcement learning 시대를 위해 설계한 첫 전용 CPU로 설명하며, 기존 rack-scale CPU 대비 50% 빠르고 효율은 2배라고 주장했다.
NVIDIA는 2026년 3월 16일 Nemotron Coalition을 발표했다. Black Forest Labs, Cursor, LangChain, Mistral AI, Perplexity, Reflection AI, Sarvam, Thinking Machines Lab이 참여하며, 첫 모델은 NVIDIA DGX Cloud에서 학습돼 향후 Nemotron 4 family의 기반이 된다.
Comments (0)
No comments yet. Be the first to comment!