NVIDIA, OpenShell 공개… autonomous agent를 위한 runtime-level security 분리 제안
Original: How Autonomous AI Agents Become Secure by Design With NVIDIA OpenShell View original →
NVIDIA가 2026년 3월 23일 발표한 OpenShell은 agentic AI의 핵심 질문 하나를 직접 겨냥한다. autonomous agent의 보안 정책을 model이나 application layer에 둘 것인가, 아니면 더 아래쪽 infrastructure boundary에 둘 것인가 하는 문제다. NVIDIA의 답은 후자다. OpenShell은 open source, secure-by-design runtime으로 설계되고 있으며, 각 agent를 개별 sandbox 안에서 실행해 application-layer behavior와 infrastructure-layer policy enforcement를 분리한다.
OpenShell이 바꾸려는 점
NVIDIA가 강조하는 핵심은 separation이다. security policy가 system level에 남아 있기 때문에, agent가 compromise되거나 지나치게 강한 tool access를 갖더라도 스스로 guardrail을 우회하거나 credential을 빼내기 어렵게 만든다는 설명이다. 회사는 이를 agent용 browser tab model에 비유했다. session은 서로 분리되고, resource는 통제되며, 실제 action이 일어나기 전에 runtime이 permission을 확인하는 구조다. 이렇게 되면 coding agent, research assistant, 기타 장기 실행 agent workflow 전반에 하나의 policy layer를 적용할 수 있다는 것이 NVIDIA의 주장이다.
OpenShell은 NVIDIA Agent Toolkit의 일부로 소개됐고, NemoClaw와 함께 언급됐다. NemoClaw는 OpenShell과 NVIDIA Nemotron model을 조합해 always-on personal AI assistant를 빠르게 설치할 수 있도록 만든 open reference stack이다. NVIDIA는 여기에 policy-based privacy와 security guardrail example을 넣어, self-evolving assistant를 실험하면서도 data handling과 behavior control을 같이 설계할 수 있게 했다고 설명한다. agent capability를 키우는 속도만큼 control layer도 같이 발전해야 한다는 메시지다.
왜 ecosystem이 중요한가
NVIDIA는 이 발표를 단독 runtime 출시가 아니라 ecosystem 작업으로 설명했다. Cisco, CrowdStrike, Google Cloud, Microsoft Security, TrendAI와 협력해 enterprise stack 전반에서 agent policy management와 enforcement를 정렬하겠다는 계획이다. OpenShell과 NemoClaw 모두 아직 early preview 단계이기 때문에, 당장 대규모 production deployment를 의미하는 발표는 아니다. 그럼에도 방향성은 분명하다. agent risk를 model 자체의 자율 통제에 맡기기보다 infrastructure boundary에 더 가까운 곳에서 통제하려는 접근이 본격화되고 있다는 점이다. coding agent와 computer use system이 더 autonomous해질수록, 2026년 enterprise buyer가 agent platform을 평가하는 기준도 capability 못지않게 runtime-level control로 이동할 가능성이 크다.
Related Articles
Ollama는 2026년 3월 20일 NVIDIA의 Nemotron-Cascade-2를 자사 로컬 모델 스택에서 실행할 수 있다고 밝혔다. 공식 모델 페이지는 이를 3B activated parameter를 쓰는 open 30B MoE 모델로 소개하며, thinking·instruct 모드와 OpenClaw·Codex·Claude 연동 경로를 함께 제공한다.
GitHub은 AI coding agent가 commit이나 pull request 이전에 GitHub MCP Server를 통해 secret scanning을 호출할 수 있다고 밝혔다. 이 기능은 GitHub Secret Protection이 활성화된 repository를 대상으로 public preview로 제공된다.
GitHub는 2026-03-09 GitHub Actions 위에서 Agentic Workflows를 어떻게 격리하고 통제하는지 설명했다. agent를 신뢰 가능한 자동화가 아니라 제약이 필요한 비결정적 실행 주체로 본 점이 핵심이다.
Comments (0)
No comments yet. Be the first to comment!