Open WebUIのOpen Terminalが、ローカルモデルに“本物の実行環境”を与える
Original: Open WebUI’s New Open Terminal + “Native” Tool Calling + Qwen3.5 35b = Holy Sh!t!!! View original →
Redditスレッド: LocalLLaMA の議論
プロジェクト: open-webui/open-terminal
ドキュメント: Open Terminal documentation
このLocalLLaMA投稿が注目されている理由は、Open WebUI の新機能 Open Terminal がローカルモデルに本物のOS環境を渡すからだ。単なる少数のtoy tool付きチャットではなく、モデルがコマンドを実行し、ファイルを扱い、成果物を残せる実行レイヤーそのものを提供する。Dockerモードでは sandboxed Linux 環境と file browser、live preview が与えられ、bare metal モードではユーザー自身のマシンと project directory を直接操作する。
注目点
- モデルが package install、shell command 実行、file 編集、成果物生成までを同じUIで行える。
- 公式docsには Python 3.12、git、build tools、jq、sqlite3、pandas、scikit-learn、matplotlib など幅広い事前導入スタックが並ぶ。
- 投稿者は “Native” tool calling を有効化した Qwen3.5 35B A3B がかなりうまく動いたと述べ、標準Docker構成では persistent volume が chat をまたいで維持されるとしている。
この組み合わせが重要なのは、ローカルopen modelと Claude Code のような製品の距離を縮めるからだ。別々のpluginを組み合わせる代わりに、モデルが file を調べ、手順を実行し、error から回復し、成果物を同じ interface で返す単一環境を得られる。投稿では enterprise 向け multi-user “Terminals” も進行中だとされ、チーム単位の workflow まで視野に入っている。
当然ながら安全性には注意が必要だ。Open WebUI の docs は、bare metal モードでは AI にユーザーの実権限が渡ると率直に警告しており、より安全な初期選択は Docker になる。それでも全体の流れは明白だ。tool calling、filesystem access、execution が補助機能ではなく一級機能になったとき、ローカルモデルの実用性は大きく上がる。
Related Articles
LocalLLaMAがまず反応したのは新しいUIよりも、「Dockerもターミナルも要らない」という入口の軽さだった。同時に上位コメントでは、推論エンジンを同梱しない軽量版を早くも求める声が出た。
r/LocalLLaMAのthreadはlocal tool calling失敗談を、OpenWebUI、native tool calls、quant、runtime、wrapperのチェックリストへ変えた。
r/LocalLLaMAが900 points超まで反応した理由はscore表ではない。local coding agentがcanvas bugとwave completion issueを見つけて直したという使用感だった。
Comments (0)
No comments yet. Be the first to comment!