腐食中

OmniCoder-9B、42.5万件のagentic trajectoryで学習した9Bコーディングモデル

Original: OmniCoder-9B | 9B coding agent fine-tuned on 425K agentic trajectories View original →

Read in other languages: 한국어English
LLM Mar 13, 2026 By Insights AI (Reddit) 1 min read 5 views Source

r/LocalLLaMAで注目されたOmniCoder-9Bは、Qwen3.5-9Bを土台にしたopen-weightのcoding agentモデルだ。モデルカードとRedditの投稿によれば、実際のsoftware engineering task、tool use、terminal operation、multi-step reasoningを含む42.5万件超のcurated agentic coding trajectoryでfine-tuningされている。

面白いのは、単に9Bというサイズではなく、学習データの性質だ。Tesslateは、Claude Opus 4.6、GPT-5.4、GPT-5.3-Codex、Gemini 3.1 Proのようなfrontier systemが成功させたagent trajectoryを集め、Claude Code、OpenCode、Codex、Droidのscaffolding patternを反映したと説明している。つまり、benchmark向けのcode completionではなく、実際のcoding agentの振る舞いを小さなopen modelへ移そうとしている。

公開されている特徴もその方向を裏づける。OmniCoder-9Bはread-before-write recovery、LSP diagnosticsへの反応、ファイル全体の書き換えではなくdiff中心の編集といった挙動を学習したとされる。Qwen3.5-9Bのhybrid architectureを引き継ぎ、Apache 2.0ライセンスと262Kのnative context windowも訴求している。小さなopen modelを実際の開発workflowに入れたいコミュニティにとって、かなり分かりやすい魅力だ。

初期コメントも同じ方向を向いている。読者はすぐにGGUF、MLX、より大きな27B版を求め、一部はQwen3.5-9B系がparameter規模以上にagentic codingで強いと評価した。求められているのは、単なるinstruct modelではなく、長いtool-driven workflowに耐えられる本物のopen coding assistantだ。

OmniCoder-9Bがより広いテストでも持ちこたえるなら、open ecosystemの次の流れをよく示す例になる。frontier modelの作業パターンを、より小さく安価で、開発者が実際に配備できるagent-oriented modelへ圧縮する方向だ。原典: Hugging Face model card。コミュニティ反応: r/LocalLLaMA

Share: Long

Related Articles

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.