r/LocalLLaMA、OpenCode の local 性に疑問、`serve` UI が app.opencode.ai へ proxy
Original: OpenCode concerns (not truely local) View original →
議論の中心はmodel qualityではなくdeployment boundaryだった
2026年3月16日、OpenCode の local behavior を疑問視する r/LocalLLaMA の投稿は389 pointsと154 commentsを集めた。問題視されたのは性能ではない。多くのユーザーは opencode serve が fully local な web UI を出すと期待するが、投稿者は実際には UI path が app.opencode.ai を経由して proxy されると指摘した。firewall 環境や intranet、より厳格な privacy 前提ではこの差が重要になる。
この主張には具体的な code reference がある。リンクされた commit の packages/opencode/src/server/server.ts には、リクエストを https://app.opencode.ai に転送し、host header も書き換える proxy 呼び出しがある。これだけでそれ以上の data handling を断定するべきではないが、少なくとも local server access と fully local UI hosting が同義ではないことは示している。
local AIで何をlocalと呼ぶのかが問われている
開発者が切り分け始めているのは、local inference、local server control、local interface hosting の三つだ。あるtoolは最初の二つを満たしても、frontend は hosted app に依存することがある。それで十分なユーザーもいるが、restricted network 環境や完全な control を前提にlocal stackを選ぶユーザーにとっては、そこが設定可能で明示されていなければならない。
GitHub activityを見ると、これは単なるRedditの誤解ではない。open issue #12083 には pure intranet 環境で local page が接続できない事例があり、open PR #12446 では OPENCODE_APP_URL を追加して app.opencode.ai の代わりに custom internal location を使えるようにする提案が出ている。参照時点ではそのPRはまだopenだ。
- Reddit thread は OpenCode web UI が実際に fully local かを問題にした。
- リンクされた code path は
https://app.opencode.aiへの proxy を示している。 - issue #12083 は pure intranet での接続失敗ケースを記録している。
- PR #12446 は configurable な app URL を提案している。
この投稿が伸びた理由は、「not truly local」という曖昧な感覚を、コードで確認できる product boundary の話へ変えたからだ。AI developer tools では、こうした deployment boundary 自体が製品価値の一部になりつつある。
出典: Reddit discussion, linked code path, issue #12083, PR #12446
Related Articles
LocalLLaMAがこの投稿を押し上げたのは、皆がベンチマークを信じたからではない。27Bのオープンモデルがエージェント型タスクで急に競争圏へ入ったように見え、その重要さと怪しさが同時に出たことで議論が熱くなった。
LocalLLaMAが反応したのは単なる音声デモではなかった。Qwen3-TTSをローカル実時間で動かし、llama.cppと単語単位アラインメントまで組み合わせた実装記録だった。
LocalLLaMAがこの話題に強く反応したのは、単なる謝罪文だったからではない。hosted modelでは、同じモデルを使っているつもりでも、実体験はデフォルト設定やプロンプト層、セッション管理で静かに変わりうると再確認されたからだ。
Comments (0)
No comments yet. Be the first to comment!