OmniCoder-9B、42.5万件のagentic trajectoryで学習した9Bコーディングモデル
Original: OmniCoder-9B | 9B coding agent fine-tuned on 425K agentic trajectories View original →
r/LocalLLaMAで注目されたOmniCoder-9Bは、Qwen3.5-9Bを土台にしたopen-weightのcoding agentモデルだ。モデルカードとRedditの投稿によれば、実際のsoftware engineering task、tool use、terminal operation、multi-step reasoningを含む42.5万件超のcurated agentic coding trajectoryでfine-tuningされている。
面白いのは、単に9Bというサイズではなく、学習データの性質だ。Tesslateは、Claude Opus 4.6、GPT-5.4、GPT-5.3-Codex、Gemini 3.1 Proのようなfrontier systemが成功させたagent trajectoryを集め、Claude Code、OpenCode、Codex、Droidのscaffolding patternを反映したと説明している。つまり、benchmark向けのcode completionではなく、実際のcoding agentの振る舞いを小さなopen modelへ移そうとしている。
公開されている特徴もその方向を裏づける。OmniCoder-9Bはread-before-write recovery、LSP diagnosticsへの反応、ファイル全体の書き換えではなくdiff中心の編集といった挙動を学習したとされる。Qwen3.5-9Bのhybrid architectureを引き継ぎ、Apache 2.0ライセンスと262Kのnative context windowも訴求している。小さなopen modelを実際の開発workflowに入れたいコミュニティにとって、かなり分かりやすい魅力だ。
初期コメントも同じ方向を向いている。読者はすぐにGGUF、MLX、より大きな27B版を求め、一部はQwen3.5-9B系がparameter規模以上にagentic codingで強いと評価した。求められているのは、単なるinstruct modelではなく、長いtool-driven workflowに耐えられる本物のopen coding assistantだ。
OmniCoder-9Bがより広いテストでも持ちこたえるなら、open ecosystemの次の流れをよく示す例になる。frontier modelの作業パターンを、より小さく安価で、開発者が実際に配備できるagent-oriented modelへ圧縮する方向だ。原典: Hugging Face model card。コミュニティ反応: r/LocalLLaMA。
Related Articles
GitHubは2026年3月5日、GPT-5.4がGitHub Copilotで一般提供となり、順次展開中だと発表した。初期テストでは成功率の向上に加え、複雑でツール依存の作業における論理推論と実行力の改善を確認したとしている。
Hacker Newsで注目された「Agentic Engineering Patterns」は、コーディングエージェントを実務に組み込むための原則とQA手順を体系化したガイド。単発のプロンプト技ではなく、再現性のある開発プロセスに焦点を当てる。
NVIDIA AI Developerは2026年3月11日、12B active parametersを用いるオープン120B-parameter hybrid MoEモデル Nemotron 3 Super を発表した。NVIDIAはnative 1M-token contextと、前世代Nemotron Super比で最大5倍のthroughputを強調している。
Comments (0)
No comments yet. Be the first to comment!