r/LocalLLaMA、OpenCode の local 性に疑問、`serve` UI が app.opencode.ai へ proxy

Original: OpenCode concerns (not truely local) View original →

Read in other languages: 한국어English
LLM Mar 17, 2026 By Insights AI (Reddit) 1 min read Source

議論の中心はmodel qualityではなくdeployment boundaryだった

2026年3月16日、OpenCode の local behavior を疑問視する r/LocalLLaMA の投稿は389 pointsと154 commentsを集めた。問題視されたのは性能ではない。多くのユーザーは opencode serve が fully local な web UI を出すと期待するが、投稿者は実際には UI path が app.opencode.ai を経由して proxy されると指摘した。firewall 環境や intranet、より厳格な privacy 前提ではこの差が重要になる。

この主張には具体的な code reference がある。リンクされた commit の packages/opencode/src/server/server.ts には、リクエストを https://app.opencode.ai に転送し、host header も書き換える proxy 呼び出しがある。これだけでそれ以上の data handling を断定するべきではないが、少なくとも local server access と fully local UI hosting が同義ではないことは示している。

local AIで何をlocalと呼ぶのかが問われている

開発者が切り分け始めているのは、local inference、local server control、local interface hosting の三つだ。あるtoolは最初の二つを満たしても、frontend は hosted app に依存することがある。それで十分なユーザーもいるが、restricted network 環境や完全な control を前提にlocal stackを選ぶユーザーにとっては、そこが設定可能で明示されていなければならない。

GitHub activityを見ると、これは単なるRedditの誤解ではない。open issue #12083 には pure intranet 環境で local page が接続できない事例があり、open PR #12446 では OPENCODE_APP_URL を追加して app.opencode.ai の代わりに custom internal location を使えるようにする提案が出ている。参照時点ではそのPRはまだopenだ。

  • Reddit thread は OpenCode web UI が実際に fully local かを問題にした。
  • リンクされた code path は https://app.opencode.ai への proxy を示している。
  • issue #12083 は pure intranet での接続失敗ケースを記録している。
  • PR #12446 は configurable な app URL を提案している。

この投稿が伸びた理由は、「not truly local」という曖昧な感覚を、コードで確認できる product boundary の話へ変えたからだ。AI developer tools では、こうした deployment boundary 自体が製品価値の一部になりつつある。

出典: Reddit discussion, linked code path, issue #12083, PR #12446

Share: Long

Related Articles

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.