Open WebUI의 Open Terminal, 로컬 모델에 ‘진짜 컴퓨터’를 붙이다
Original: Open WebUI’s New Open Terminal + “Native” Tool Calling + Qwen3.5 35b = Holy Sh!t!!! View original →
Reddit 스레드: LocalLLaMA 토론
프로젝트: open-webui/open-terminal
문서: Open Terminal 문서
이 LocalLLaMA 글이 주목받는 이유는 Open WebUI의 새 Open Terminal이 로컬 모델에 실제 운영체제를 붙여 주기 때문이다. 단순히 몇 개의 장난감 tool이 붙은 채팅창이 아니라, 모델이 명령을 실행하고 파일을 다루고 결과물을 남길 수 있는 실행 환경 자체를 제공한다. Docker 모드에서는 sandboxed Linux 환경과 file browser, live preview를 주고, bare metal 모드에서는 사용자의 실제 머신과 프로젝트 디렉터리에서 직접 작업한다.
눈에 띄는 점
- 모델이 패키지 설치, shell command 실행, 파일 편집, 산출물 생성까지 한 인터페이스 안에서 수행할 수 있다.
- 공식 문서는 Python 3.12, git, build tools, jq, sqlite3, pandas, scikit-learn, matplotlib 등 폭넓은 사전 설치 스택을 제시한다.
- Reddit 작성자는 “Native” tool calling을 켠 Qwen3.5 35B A3B가 꽤 잘 동작했고, 기본 Docker 구성이 chat 사이에 persistent volume을 유지한다고 설명한다.
이 조합이 중요한 이유는 로컬 오픈 모델과 Claude Code 같은 제품 사이의 간극을 줄이기 때문이다. 별도의 plugin을 조립하는 대신, 사용자는 모델이 파일을 보고 단계별로 실행하고 오류를 복구하고 결과물을 같은 UI에서 돌려주는 단일 환경을 얻게 된다. 글에서는 enterprise용 multi-user “Terminals”도 진행 중이라고 언급하는데, 이는 팀 단위 워크플로까지 겨냥하고 있음을 시사한다.
물론 안전성은 핵심 변수다. Open WebUI 문서는 bare metal 모드가 사용자 권한을 그대로 AI에 넘긴다고 분명히 경고하며, 그래서 기본 선택지는 Docker가 더 적절하다. 그럼에도 큰 흐름은 분명하다. tool calling, filesystem access, execution이 부가 기능이 아니라 1급 기능이 되는 순간, 로컬 모델의 실용성은 크게 올라간다.
Related Articles
고득점 r/MachineLearning 글은 David Noel Ng의 장문 blog를 가리키며, Qwen2-72B의 중간 7개 layer block을 복제하는 방식만으로 leaderboard 상단에 올랐다는 주장과 circuit-like 구조 해석을 다시 불러냈다.
Hacker News에서 주목받은 Unsloth의 Qwen3.5 가이드는 27B와 35B-A3B를 포함한 로컬 실행 경로를 메모리 요구량, thinking 제어, llama.cpp 명령 중심으로 정리한다.
r/LocalLLaMA에서는 Qwen3.5-9B 기반의 open coding agent인 OmniCoder-9B가 frontier agent traces를 학습했다는 점에 관심이 모이고 있다.
Comments (0)
No comments yet. Be the first to comment!