Qwen3.5-122B-A10B Uncensored (Aggressive) のGGUF公開、新しい K_P quants を追加
Original: Qwen3.5-122B-A10B Uncensored (Aggressive) — GGUF Release + new K_P Quants View original →
Reddit の r/LocalLLaMA で、Qwen3.5-122B-A10B Uncensored (Aggressive) の GGUF release を紹介する self-post が注目を集めている。crawl 時点でこの Reddit thread は 263 points と 94 comments を記録しており、posted at 2026-03-22T10:42:56.000Z とされている。投稿では release の概要が説明され、配布先として Hugging Face page が案内されている。元の議論は Reddit thread で確認できる。
投稿者によれば、この release は original Qwen model を uncensored 化したもので、personality changes は入れていないという。さらに、投稿者自身の tests では 0/465 refusals と zero capability loss を確認したと説明している。ただし、これらの benchmark/performance claim は投稿者が Reddit thread 上で述べている内容であり、独立した third-party benchmark や external verification として提示されているわけではない。実際の挙動は prompt、runtime、sampling settings によって変わる可能性がある。
技術面での中心は new K_P quants だ。投稿者は、この quant format なら ~5-15% larger file size と引き換えに 1-2 quant levels better quality を狙え、Q4_K_P は Q6_K により近いと述べている。local LLM ユーザーにとっては、限られた storage や VRAM の中でどこまで quality を引き上げられるかが重要なので、この説明が thread の関心を集める理由になっている。ただし、Reddit post には広範な comparative chart や neutral benchmark table は含まれていないため、現時点では投稿者の所見として受け取るのが妥当だ。
互換性に関するメモも実務的だ。post では GGUF files が llama.cpp と LM Studio に対応し、Ollama は extra work が必要かもしれないとしている。また、vision support 用の mmproj が含まれ、quants は imatrix-generated quants だと説明されている。BF16 package が用意されていない理由については、BF16 would be ~250GB になるからだと投稿者は述べている。つまり今回の release は、最大精度よりも local inference で扱いやすい配布形態を優先した構成だと読める。
投稿内で示された model specs は次の通りだ。
- 122B total
- ~10B active
- 256 experts with 8+1 active per token
- 262K context
- multimodal text/image/video
- hybrid attention Gated DeltaNet + softmax (3:1)
- 48 layers
この組み合わせを見ると、release は大規模な Mixture-of-Experts model を local deployment 向けの GGUF ecosystem に持ち込もうとする試みとして理解できる。262K context、multimodal text/image/video、そして hybrid attention の記述は、単純な text-only checkpoint より広い用途を意識した構成を示している。
要点は、この story が upstream Qwen の新しい official announcement というより、community member による uncensored packaging と quantization の実験だということだ。関心のある読者は Reddit thread と linked Hugging Face page を確認し、自分の workload で評価するのがよい。特に性能や refusal の改善に関する強い主張は、すべて投稿者の説明に基づく点を押さえておきたい。
Related Articles
r/LocalLLaMAで人気を集めたこの投稿は、uncensored変更とreasoning distillationを組み合わせたQwen 3.5 9Bのコミュニティ実験を取り上げ、小型ローカルモデル調整の関心を映し出した。
高評価のLocalLLaMA投稿は、Qwen3.5-27BのQ4 GGUF群をBF16基準で比較し、「忠実度優先」と「効率優先」の選択を分けて示した。
r/LocalLLaMAの高反応投稿で、UnslothのQwen3.5-35B-A3B Dynamic GGUF更新が共有され、KLD/PPL指標と下流評価の両立が議論された。
Comments (0)
No comments yet. Be the first to comment!