Qwen3.6-27B、397B級前世代をcoding指標で上回りApache 2.0 open weightで公開

Original: Qwen pushed Qwen3.6-27B as an Apache 2.0 open-weight dense model that beats its 397B predecessor on coding benchmarks View original →

Read in other languages: 한국어English
LLM Apr 23, 2026 By Insights AI (Twitter) 1 min read 1 views Source

tweetが示したこと

Qwenは今回のreleaseを、open model陣営が反応しやすい形で出してきた。中心の文は Qwen3.6-27B surpasses Qwen3.5-397B-A17B across all major coding benchmarks and supports thinking & non-thinking modes. である。加えてdense構造、open-source、Apache 2.0 licenseを同時に押し出した。Qwen lineの商用面での魅力を短くまとめたtweetと言える。

Qwen accountはfirst-partyのmodel releaseとecosystem linkを流す公式チャネルだ。今回がmaterialなのは比較対象が明確だからだ。単に「小さいのに強い」と言っているのではない。27B dense modelが397B級の前世代ファミリーをmajor coding benchmark全体で上回ると主張している。

public model cardが加える情報

Hugging Face READMEはtweetよりずっと具体的だ。Qwen3.6-27BをQwen3.6初のopen-weight variantと位置づけ、stabilityとreal-world utilityを重視したと説明する。native context lengthは262,144 tokensで、過去messageのreasoning contextを保持するthinking preservation機能もある。licenseはApache 2.0だ。

benchmark表も公開されている。Qwen3.6-27BはSWE-bench Verifiedで77.2、Qwen3.5-397B-A17Bは76.2。SWE-bench Proは53.5対50.9、SkillsBenchは48.2対30.0、NL2Repoは36.2対32.2。Terminal-Bench 2.0ではどちらも59.3で並ぶ。重要なのは、Qwenがすべてのfrontier closed modelを超えたと言っているわけではないことだ。いくつかの行ではClaude 4.5 Opusが上にいる。それでも、open coding systemのsizeとcostの議論をかなり縮めたのは確かだ。

次に見るべき点

次はthird-party verificationである。公開値が外部harnessでも再現するか、thinking/non-thinking modeが実運用でどう振る舞うか、そしてvLLMやSGLangが262K context pathをどれだけ速く安定化するか。そこまでそろえば、Qwen3.6-27Bはcoding-model市場でかなり有力なopen deployment optionになる。

Sources: X source tweet · Hugging Face model card · GitHub README

Share: Long

Related Articles

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.