OmniCoder-9B, 42.5만 개 agentic trajectory로 학습한 9B 코딩 에이전트
Original: OmniCoder-9B | 9B coding agent fine-tuned on 425K agentic trajectories View original →
r/LocalLLaMA에서 주목받은 OmniCoder-9B는 Qwen3.5-9B 기반의 open-weight coding agent다. 모델 카드와 Reddit 글에 따르면 이 모델은 실제 소프트웨어 엔지니어링 작업, tool use, terminal operation, multi-step reasoning을 포함한 425,000개 이상의 curated agentic coding trajectory로 fine-tuning됐다.
흥미로운 지점은 단순히 9B 크기가 아니라 학습 데이터의 성격이다. Tesslate는 Claude Opus 4.6, GPT-5.4, GPT-5.3-Codex, Gemini 3.1 Pro 같은 frontier system의 성공적인 agent trajectory를 수집해 Claude Code, OpenCode, Codex, Droid 스타일의 scaffolding 패턴을 반영했다고 설명한다. 즉 benchmark용 code completion이 아니라 실제 coding agent 행동을 작은 open model에 옮기려는 시도다.
공개된 특징도 그 방향과 맞닿아 있다. OmniCoder-9B는 read-before-write 복구, LSP diagnostic 대응, 전체 파일 덮어쓰기 대신 diff 중심 수정 같은 패턴을 학습했다고 주장한다. 아키텍처는 Qwen3.5-9B의 hybrid design을 이어받았고, Apache 2.0 라이선스, 262K native context window도 내세운다. 작은 open model이 실제 개발 워크플로에 들어갈 수 있을지 평가하려는 커뮤니티에선 충분히 관심을 가질 만한 조합이다.
초기 댓글도 그 점을 보여준다. 사용자들은 곧바로 GGUF, MLX, 더 큰 27B 변형을 물었고, 일부는 Qwen3.5-9B 계열이 parameter 크기 대비 agentic coding에서 예상보다 훨씬 강하다고 평가했다. 관심사는 단순한 instruct model이 아니라, 긴 tool-driven workflow를 버틸 수 있는 실제 open coding assistant다.
OmniCoder-9B가 더 넓은 테스트에서도 버틴다면, open ecosystem의 다음 흐름을 잘 보여주는 사례가 될 수 있다. frontier model의 작업 습관을 더 작고 저렴한 agent-oriented model에 압축해, 개발자가 직접 배포 가능한 형태로 옮기는 방향이다. 원문: Hugging Face 모델 카드. 커뮤니티 반응: r/LocalLLaMA.
Related Articles
r/LocalLLaMA가 이 글을 끌어올린 이유는 “trust me bro”식 후기 안에 8-bit, 64k context, OpenCode, Android debugging이라는 실제 사용 조건이 들어 있었기 때문이다.
Hacker News는 Zed가 단순히 에이전트 패널을 하나 더 붙인 게 아니라, worktree 분리와 repo 접근 범위, 스레드 UI 자체를 제품의 중심에 놓았다는 점에 반응했다. 2026년 4월 25일 크롤링 시점 기준 스레드는 278점, 160댓글이었다.
LocalLLaMA를 흔든 건 단순한 Qwen 점수 상승이 아니었다. 같은 계열 로컬 모델이 scaffold 변경만으로 19%에서 45%, 다시 78.7%까지 올라갔다는 서사가 붙으면서, 벤치마크 비교 자체를 다시 봐야 한다는 분위기가 퍼졌다.
Comments (0)
No comments yet. Be the first to comment!