OmniCoder-9B, 42.5만 개 agentic trajectory로 학습한 9B 코딩 에이전트
Original: OmniCoder-9B | 9B coding agent fine-tuned on 425K agentic trajectories View original →
r/LocalLLaMA에서 주목받은 OmniCoder-9B는 Qwen3.5-9B 기반의 open-weight coding agent다. 모델 카드와 Reddit 글에 따르면 이 모델은 실제 소프트웨어 엔지니어링 작업, tool use, terminal operation, multi-step reasoning을 포함한 425,000개 이상의 curated agentic coding trajectory로 fine-tuning됐다.
흥미로운 지점은 단순히 9B 크기가 아니라 학습 데이터의 성격이다. Tesslate는 Claude Opus 4.6, GPT-5.4, GPT-5.3-Codex, Gemini 3.1 Pro 같은 frontier system의 성공적인 agent trajectory를 수집해 Claude Code, OpenCode, Codex, Droid 스타일의 scaffolding 패턴을 반영했다고 설명한다. 즉 benchmark용 code completion이 아니라 실제 coding agent 행동을 작은 open model에 옮기려는 시도다.
공개된 특징도 그 방향과 맞닿아 있다. OmniCoder-9B는 read-before-write 복구, LSP diagnostic 대응, 전체 파일 덮어쓰기 대신 diff 중심 수정 같은 패턴을 학습했다고 주장한다. 아키텍처는 Qwen3.5-9B의 hybrid design을 이어받았고, Apache 2.0 라이선스, 262K native context window도 내세운다. 작은 open model이 실제 개발 워크플로에 들어갈 수 있을지 평가하려는 커뮤니티에선 충분히 관심을 가질 만한 조합이다.
초기 댓글도 그 점을 보여준다. 사용자들은 곧바로 GGUF, MLX, 더 큰 27B 변형을 물었고, 일부는 Qwen3.5-9B 계열이 parameter 크기 대비 agentic coding에서 예상보다 훨씬 강하다고 평가했다. 관심사는 단순한 instruct model이 아니라, 긴 tool-driven workflow를 버틸 수 있는 실제 open coding assistant다.
OmniCoder-9B가 더 넓은 테스트에서도 버틴다면, open ecosystem의 다음 흐름을 잘 보여주는 사례가 될 수 있다. frontier model의 작업 습관을 더 작고 저렴한 agent-oriented model에 압축해, 개발자가 직접 배포 가능한 형태로 옮기는 방향이다. 원문: Hugging Face 모델 카드. 커뮤니티 반응: r/LocalLLaMA.
Related Articles
NVIDIA AI Developer는 2026년 3월 11일 Nemotron 3 Super를 공개하며, 12B active parameters를 사용하는 오픈 120B-parameter hybrid MoE 모델과 native 1M-token context를 강조했다. NVIDIA는 이 모델이 이전 Nemotron Super 대비 최대 5배 높은 throughput으로 agentic workload를 겨냥한다고 설명했다.
고득점 r/MachineLearning 글은 David Noel Ng의 장문 blog를 가리키며, Qwen2-72B의 중간 7개 layer block을 복제하는 방식만으로 leaderboard 상단에 올랐다는 주장과 circuit-like 구조 해석을 다시 불러냈다.
LocalLLaMA에서 크게 주목받은 Sarvam AI의 발표는 Apache 2.0 기반의 reasoning model인 Sarvam 30B와 Sarvam 105B를 공개한다. 회사는 두 모델이 India에서 scratch부터 학습됐고, Mixture-of-Experts 구조를 바탕으로 reasoning, coding, agentic workflow, Indian-language 성능을 겨냥했다고 설명한다.
Comments (0)
No comments yet. Be the first to comment!