Qwen3.6-27B、397B級前世代をcoding指標で上回りApache 2.0 open weightで公開
Original: Qwen pushed Qwen3.6-27B as an Apache 2.0 open-weight dense model that beats its 397B predecessor on coding benchmarks View original →
tweetが示したこと
Qwenは今回のreleaseを、open model陣営が反応しやすい形で出してきた。中心の文は Qwen3.6-27B surpasses Qwen3.5-397B-A17B across all major coding benchmarks and supports thinking & non-thinking modes. である。加えてdense構造、open-source、Apache 2.0 licenseを同時に押し出した。Qwen lineの商用面での魅力を短くまとめたtweetと言える。
Qwen accountはfirst-partyのmodel releaseとecosystem linkを流す公式チャネルだ。今回がmaterialなのは比較対象が明確だからだ。単に「小さいのに強い」と言っているのではない。27B dense modelが397B級の前世代ファミリーをmajor coding benchmark全体で上回ると主張している。
public model cardが加える情報
Hugging Face READMEはtweetよりずっと具体的だ。Qwen3.6-27BをQwen3.6初のopen-weight variantと位置づけ、stabilityとreal-world utilityを重視したと説明する。native context lengthは262,144 tokensで、過去messageのreasoning contextを保持するthinking preservation機能もある。licenseはApache 2.0だ。
benchmark表も公開されている。Qwen3.6-27BはSWE-bench Verifiedで77.2、Qwen3.5-397B-A17Bは76.2。SWE-bench Proは53.5対50.9、SkillsBenchは48.2対30.0、NL2Repoは36.2対32.2。Terminal-Bench 2.0ではどちらも59.3で並ぶ。重要なのは、Qwenがすべてのfrontier closed modelを超えたと言っているわけではないことだ。いくつかの行ではClaude 4.5 Opusが上にいる。それでも、open coding systemのsizeとcostの議論をかなり縮めたのは確かだ。
次に見るべき点
次はthird-party verificationである。公開値が外部harnessでも再現するか、thinking/non-thinking modeが実運用でどう振る舞うか、そしてvLLMやSGLangが262K context pathをどれだけ速く安定化するか。そこまでそろえば、Qwen3.6-27Bはcoding-model市場でかなり有力なopen deployment optionになる。
Sources: X source tweet · Hugging Face model card · GitHub README
Related Articles
r/LocalLLaMAが見ていたのは、Qwen3.6のrelease headlineではなく、どのGGUF quantを実機で使うべきかだった。Unslothのbenchmark postは、KLD、disk space、CUDA 13.2のgibberish問題、CUDA 13.1/13.3対応へ議論を引き寄せた。
r/LocalLLaMAが反応したのは具体的な数字だ。RTX 5070 Tiで128K context、79 t/s、その鍵がllama.cppのflagに絞られた。
重要なのは、search AIでは流暢な回答だけでなくfactualityとcitation qualityが評価軸になることだ。PerplexityはSFT + RL pipelineにより、Qwen modelsがより低いcostでGPT modelsのfactualityに並ぶ、または上回ると述べた。
Comments (0)
No comments yet. Be the first to comment!