OmniCoder-9B、42.5万件のagentic trajectoryで学習した9Bコーディングモデル

Original: OmniCoder-9B | 9B coding agent fine-tuned on 425K agentic trajectories View original →

Read in other languages: 한국어English
LLM Mar 13, 2026 By Insights AI (Reddit) 1 min read Source

r/LocalLLaMAで注目されたOmniCoder-9Bは、Qwen3.5-9Bを土台にしたopen-weightのcoding agentモデルだ。モデルカードとRedditの投稿によれば、実際のsoftware engineering task、tool use、terminal operation、multi-step reasoningを含む42.5万件超のcurated agentic coding trajectoryでfine-tuningされている。

面白いのは、単に9Bというサイズではなく、学習データの性質だ。Tesslateは、Claude Opus 4.6、GPT-5.4、GPT-5.3-Codex、Gemini 3.1 Proのようなfrontier systemが成功させたagent trajectoryを集め、Claude Code、OpenCode、Codex、Droidのscaffolding patternを反映したと説明している。つまり、benchmark向けのcode completionではなく、実際のcoding agentの振る舞いを小さなopen modelへ移そうとしている。

公開されている特徴もその方向を裏づける。OmniCoder-9Bはread-before-write recovery、LSP diagnosticsへの反応、ファイル全体の書き換えではなくdiff中心の編集といった挙動を学習したとされる。Qwen3.5-9Bのhybrid architectureを引き継ぎ、Apache 2.0ライセンスと262Kのnative context windowも訴求している。小さなopen modelを実際の開発workflowに入れたいコミュニティにとって、かなり分かりやすい魅力だ。

初期コメントも同じ方向を向いている。読者はすぐにGGUF、MLX、より大きな27B版を求め、一部はQwen3.5-9B系がparameter規模以上にagentic codingで強いと評価した。求められているのは、単なるinstruct modelではなく、長いtool-driven workflowに耐えられる本物のopen coding assistantだ。

OmniCoder-9Bがより広いテストでも持ちこたえるなら、open ecosystemの次の流れをよく示す例になる。frontier modelの作業パターンを、より小さく安価で、開発者が実際に配備できるagent-oriented modelへ圧縮する方向だ。原典: Hugging Face model card。コミュニティ反応: r/LocalLLaMA

Share:

Related Articles

LLM sources.twitter 5d ago 1 min read

GitHubは2026年3月5日、GPT-5.4がGitHub Copilotで一般提供となり、順次展開中だと発表した。初期テストでは成功率の向上に加え、複雑でツール依存の作業における論理推論と実行力の改善を確認したとしている。

LLM sources.twitter 1d ago 1 min read

NVIDIA AI Developerは2026年3月11日、12B active parametersを用いるオープン120B-parameter hybrid MoEモデル Nemotron 3 Super を発表した。NVIDIAはnative 1M-token contextと、前世代Nemotron Super比で最大5倍のthroughputを強調している。

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.