Open WebUIのOpen Terminalが、ローカルモデルに“本物の実行環境”を与える
Original: Open WebUI’s New Open Terminal + “Native” Tool Calling + Qwen3.5 35b = Holy Sh!t!!! View original →
Redditスレッド: LocalLLaMA の議論
プロジェクト: open-webui/open-terminal
ドキュメント: Open Terminal documentation
このLocalLLaMA投稿が注目されている理由は、Open WebUI の新機能 Open Terminal がローカルモデルに本物のOS環境を渡すからだ。単なる少数のtoy tool付きチャットではなく、モデルがコマンドを実行し、ファイルを扱い、成果物を残せる実行レイヤーそのものを提供する。Dockerモードでは sandboxed Linux 環境と file browser、live preview が与えられ、bare metal モードではユーザー自身のマシンと project directory を直接操作する。
注目点
- モデルが package install、shell command 実行、file 編集、成果物生成までを同じUIで行える。
- 公式docsには Python 3.12、git、build tools、jq、sqlite3、pandas、scikit-learn、matplotlib など幅広い事前導入スタックが並ぶ。
- 投稿者は “Native” tool calling を有効化した Qwen3.5 35B A3B がかなりうまく動いたと述べ、標準Docker構成では persistent volume が chat をまたいで維持されるとしている。
この組み合わせが重要なのは、ローカルopen modelと Claude Code のような製品の距離を縮めるからだ。別々のpluginを組み合わせる代わりに、モデルが file を調べ、手順を実行し、error から回復し、成果物を同じ interface で返す単一環境を得られる。投稿では enterprise 向け multi-user “Terminals” も進行中だとされ、チーム単位の workflow まで視野に入っている。
当然ながら安全性には注意が必要だ。Open WebUI の docs は、bare metal モードでは AI にユーザーの実権限が渡ると率直に警告しており、より安全な初期選択は Docker になる。それでも全体の流れは明白だ。tool calling、filesystem access、execution が補助機能ではなく一級機能になったとき、ローカルモデルの実用性は大きく上がる。
Related Articles
r/LocalLLaMAでは、Qwen3.5-9BベースのOmniCoder-9Bがfrontier agent tracesを取り込んだ小型open coding modelとして注目されている。
高評価のr/MachineLearning投稿はDavid Noel Ngの長いblog記事を再浮上させ、Qwen2-72Bの中間7-layer blockをweight変更なしで複製するだけでopen leaderboard上位に届いたという主張を改めて注目させた。
高スコアのLocalLLaMA投稿では、16GBのM1 Pro上でQwen 3.5 9Bがmemory recallと基本的なtool callingを実運用向けにこなしつつ、creative reasoningでは依然としてfrontier modelに及ばなかったと報告された。
Comments (0)
No comments yet. Be the first to comment!