NVIDIA, agentic AI용 Vera CPU 공개… 50% faster·2x efficiency 주장
Original: NVIDIA Launches Vera CPU, Purpose-Built for Agentic AI View original →
NVIDIA가 2026년 3월 23일 Vera CPU를 공개했다. 회사는 이 칩을 agentic AI와 reinforcement learning 시대를 위해 purpose-built된 첫 CPU라고 설명하며, 기존 rack-scale CPU보다 50% faster results와 2x efficiency를 제공한다고 주장했다. 발표는 agent planning, tool execution, code running, result verification처럼 CPU orchestration 부담이 커지는 workload를 겨냥한다.
기술 사양도 공격적이다. Vera는 88개의 custom Olympus core와 최대 1.2 TB/s LPDDR5X memory bandwidth, second-generation scalable coherency fabric을 내세운다. NVIDIA는 256개의 liquid-cooled Vera CPU를 넣은 rack 구성을 통해 22,500개 이상의 concurrent CPU environments를 유지할 수 있다고 밝혔다. Vera는 Vera Rubin NVL72 platform에서 GPU와 NVLink-C2C로 연결되며, coherent bandwidth는 1.8 TB/s로 PCIe Gen 6의 7배라고 설명했다.
- 88 custom NVIDIA-designed Olympus cores
- LPDDR5X memory bandwidth는 최대 1.2 TB/s
- Vera rack은 22,500개 이상의 concurrent CPU environments를 목표
- partners로 Alibaba Cloud, CoreWeave, Meta, Oracle Cloud Infrastructure, Dell, HPE, Lenovo, Supermicro 등을 제시
중요한 점은 NVIDIA가 CPU를 더 이상 GPU의 보조 부품으로 말하지 않는다는 것이다. Jensen Huang은 CPU가 이제 model을 지원하는 수준을 넘어 system을 직접 구동한다고 설명했다. 이는 AI infra 경쟁이 GPU 성능 alone에서 벗어나, memory bandwidth, data movement, orchestration, networking, security까지 묶은 rack-level 설계 경쟁으로 이동하고 있음을 보여준다.
다만 성능과 효율 수치는 모두 NVIDIA가 제시한 수치다. 시장에서의 실제 의미는 cloud provider와 enterprise가 agentic AI workload를 production에 올릴 때 Vera가 기존 x86 혹은 Arm server 대비 어떤 total cost와 software migration burden을 만들지에 달려 있다. NVIDIA는 Vera가 2026년 하반기에 partner를 통해 공급될 것이라고 밝혔다.
Related Articles
NVIDIA는 Vera를 agentic AI와 reinforcement learning을 위해 설계한 첫 전용 processor라고 소개했다. Hacker News에서는 165 points, 98 comments를 기록하며 CPU-GPU 결합 구조와 rack-scale 효율 주장이 주요 화제로 떠올랐다.
OpenAI는 $730B pre-money valuation 기준으로 $110B를 조달했고, Amazon 및 NVIDIA와의 인프라 협력을 확장한다고 밝혔다. 회사는 Codex, ChatGPT, enterprise 수요 급증이 이번 자금 조달의 배경이라고 설명했다.
2026년 3월 18일 NVIDIA NemoClaw 관련 Hacker News 게시물은 231 points와 185 comments를 기록했다. 이 alpha 프로젝트는 NVIDIA OpenShell과 Agent Toolkit 위에 OpenClaw를 얹어 policy control과 cloud-routed inference를 갖춘 sandboxed environment에서 always-on assistant를 실행하도록 설계됐다.
Comments (0)
No comments yet. Be the first to comment!