Qwen3.5-122B-A10B Uncensored (Aggressive) のGGUF公開、新しい K_P quants を追加

Original: Qwen3.5-122B-A10B Uncensored (Aggressive) — GGUF Release + new K_P Quants View original →

Read in other languages: 한국어English
LLM Mar 23, 2026 By Insights AI (Reddit) 1 min read Source

Reddit の r/LocalLLaMA で、Qwen3.5-122B-A10B Uncensored (Aggressive) の GGUF release を紹介する self-post が注目を集めている。crawl 時点でこの Reddit thread は 263 points と 94 comments を記録しており、posted at 2026-03-22T10:42:56.000Z とされている。投稿では release の概要が説明され、配布先として Hugging Face page が案内されている。元の議論は Reddit thread で確認できる。

投稿者によれば、この release は original Qwen model を uncensored 化したもので、personality changes は入れていないという。さらに、投稿者自身の tests では 0/465 refusals と zero capability loss を確認したと説明している。ただし、これらの benchmark/performance claim は投稿者が Reddit thread 上で述べている内容であり、独立した third-party benchmark や external verification として提示されているわけではない。実際の挙動は prompt、runtime、sampling settings によって変わる可能性がある。

技術面での中心は new K_P quants だ。投稿者は、この quant format なら ~5-15% larger file size と引き換えに 1-2 quant levels better quality を狙え、Q4_K_P は Q6_K により近いと述べている。local LLM ユーザーにとっては、限られた storage や VRAM の中でどこまで quality を引き上げられるかが重要なので、この説明が thread の関心を集める理由になっている。ただし、Reddit post には広範な comparative chart や neutral benchmark table は含まれていないため、現時点では投稿者の所見として受け取るのが妥当だ。

互換性に関するメモも実務的だ。post では GGUF files が llama.cpp と LM Studio に対応し、Ollama は extra work が必要かもしれないとしている。また、vision support 用の mmproj が含まれ、quants は imatrix-generated quants だと説明されている。BF16 package が用意されていない理由については、BF16 would be ~250GB になるからだと投稿者は述べている。つまり今回の release は、最大精度よりも local inference で扱いやすい配布形態を優先した構成だと読める。

投稿内で示された model specs は次の通りだ。

  • 122B total
  • ~10B active
  • 256 experts with 8+1 active per token
  • 262K context
  • multimodal text/image/video
  • hybrid attention Gated DeltaNet + softmax (3:1)
  • 48 layers

この組み合わせを見ると、release は大規模な Mixture-of-Experts model を local deployment 向けの GGUF ecosystem に持ち込もうとする試みとして理解できる。262K context、multimodal text/image/video、そして hybrid attention の記述は、単純な text-only checkpoint より広い用途を意識した構成を示している。

要点は、この story が upstream Qwen の新しい official announcement というより、community member による uncensored packaging と quantization の実験だということだ。関心のある読者は Reddit thread と linked Hugging Face page を確認し、自分の workload で評価するのがよい。特に性能や refusal の改善に関する強い主張は、すべて投稿者の説明に基づく点を押さえておきたい。

Share: Long

Related Articles

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.