Open WebUI의 Open Terminal, 로컬 모델에 ‘진짜 컴퓨터’를 붙이다
Original: Open WebUI’s New Open Terminal + “Native” Tool Calling + Qwen3.5 35b = Holy Sh!t!!! View original →
Reddit 스레드: LocalLLaMA 토론
프로젝트: open-webui/open-terminal
문서: Open Terminal 문서
이 LocalLLaMA 글이 주목받는 이유는 Open WebUI의 새 Open Terminal이 로컬 모델에 실제 운영체제를 붙여 주기 때문이다. 단순히 몇 개의 장난감 tool이 붙은 채팅창이 아니라, 모델이 명령을 실행하고 파일을 다루고 결과물을 남길 수 있는 실행 환경 자체를 제공한다. Docker 모드에서는 sandboxed Linux 환경과 file browser, live preview를 주고, bare metal 모드에서는 사용자의 실제 머신과 프로젝트 디렉터리에서 직접 작업한다.
눈에 띄는 점
- 모델이 패키지 설치, shell command 실행, 파일 편집, 산출물 생성까지 한 인터페이스 안에서 수행할 수 있다.
- 공식 문서는 Python 3.12, git, build tools, jq, sqlite3, pandas, scikit-learn, matplotlib 등 폭넓은 사전 설치 스택을 제시한다.
- Reddit 작성자는 “Native” tool calling을 켠 Qwen3.5 35B A3B가 꽤 잘 동작했고, 기본 Docker 구성이 chat 사이에 persistent volume을 유지한다고 설명한다.
이 조합이 중요한 이유는 로컬 오픈 모델과 Claude Code 같은 제품 사이의 간극을 줄이기 때문이다. 별도의 plugin을 조립하는 대신, 사용자는 모델이 파일을 보고 단계별로 실행하고 오류를 복구하고 결과물을 같은 UI에서 돌려주는 단일 환경을 얻게 된다. 글에서는 enterprise용 multi-user “Terminals”도 진행 중이라고 언급하는데, 이는 팀 단위 워크플로까지 겨냥하고 있음을 시사한다.
물론 안전성은 핵심 변수다. Open WebUI 문서는 bare metal 모드가 사용자 권한을 그대로 AI에 넘긴다고 분명히 경고하며, 그래서 기본 선택지는 Docker가 더 적절하다. 그럼에도 큰 흐름은 분명하다. tool calling, filesystem access, execution이 부가 기능이 아니라 1급 기능이 되는 순간, 로컬 모델의 실용성은 크게 올라간다.
Related Articles
LocalLLaMA는 이 릴리스에서 새 UI보다 “이제 Docker와 터미널부터 열지 않아도 된다”는 점에 먼저 반응했다. 동시에 상위 댓글은 곧바로 번들 inference engine 없는 더 가벼운 빌드를 요구했다.
r/LocalLLaMA의 100점대 thread는 local tool calling 실패담을 model 탓으로 끝내지 않고, OpenWebUI·quant·runtime 조합 문제로 쪼개 봤다.
r/LocalLLaMA가 900점 넘게 반응한 이유는 Qwen3.6 score표가 아니라, local coding agent가 canvas bug와 wave completion issue를 스스로 찾아 고쳤다는 사용기였다.
Comments (0)
No comments yet. Be the first to comment!