OmniCoder-9B、42.5万件のagentic trajectoryで学習した9Bコーディングモデル
Original: OmniCoder-9B | 9B coding agent fine-tuned on 425K agentic trajectories View original →
r/LocalLLaMAで注目されたOmniCoder-9Bは、Qwen3.5-9Bを土台にしたopen-weightのcoding agentモデルだ。モデルカードとRedditの投稿によれば、実際のsoftware engineering task、tool use、terminal operation、multi-step reasoningを含む42.5万件超のcurated agentic coding trajectoryでfine-tuningされている。
面白いのは、単に9Bというサイズではなく、学習データの性質だ。Tesslateは、Claude Opus 4.6、GPT-5.4、GPT-5.3-Codex、Gemini 3.1 Proのようなfrontier systemが成功させたagent trajectoryを集め、Claude Code、OpenCode、Codex、Droidのscaffolding patternを反映したと説明している。つまり、benchmark向けのcode completionではなく、実際のcoding agentの振る舞いを小さなopen modelへ移そうとしている。
公開されている特徴もその方向を裏づける。OmniCoder-9Bはread-before-write recovery、LSP diagnosticsへの反応、ファイル全体の書き換えではなくdiff中心の編集といった挙動を学習したとされる。Qwen3.5-9Bのhybrid architectureを引き継ぎ、Apache 2.0ライセンスと262Kのnative context windowも訴求している。小さなopen modelを実際の開発workflowに入れたいコミュニティにとって、かなり分かりやすい魅力だ。
初期コメントも同じ方向を向いている。読者はすぐにGGUF、MLX、より大きな27B版を求め、一部はQwen3.5-9B系がparameter規模以上にagentic codingで強いと評価した。求められているのは、単なるinstruct modelではなく、長いtool-driven workflowに耐えられる本物のopen coding assistantだ。
OmniCoder-9Bがより広いテストでも持ちこたえるなら、open ecosystemの次の流れをよく示す例になる。frontier modelの作業パターンを、より小さく安価で、開発者が実際に配備できるagent-oriented modelへ圧縮する方向だ。原典: Hugging Face model card。コミュニティ反応: r/LocalLLaMA。
Related Articles
r/LocalLLaMAがこの投稿を押し上げたのは、“trust me bro”な体験談の中に8-bit、64k context、OpenCode、Android debuggingという実使用条件が入っていたからだ。
Hacker Newsが反応したのは、Zedがエージェント面を増やしたことではなく、worktree分離、repoアクセス範囲、スレッドUIそのものをワークフローの中心に置いた点だった。2026年4月25日時点でスレッドは278ポイント、160コメントだった。
LocalLLaMAを動かしたのは単なるQwenのスコア更新ではなかった。同じ系統のローカルモデルがscaffold変更だけで19%から45%、さらに78.7%へ伸びたという流れが、ベンチマーク比較そのものを見直す空気を生んだ。
Comments (0)
No comments yet. Be the first to comment!