UnslothがQwen3.5向け実践ファインチューニングガイド公開、VRAM要件を具体化
Original: Qwen3.5 Fine-Tuning Guide – Unsloth Documentation View original →
コミュニティでの位置づけ
2026-03-04 12:04:31 UTC 時点で、Unslothの Qwen3.5 Fine-tuning Guide を共有したHacker News投稿は114ポイント、34コメントを獲得した。反応が大きい理由は、抽象的な宣伝ではなく、ローカル運用のLLMチームがそのまま適用できる実装手順がまとまっている点にある。
対象はQwen3.5の主要モデル群(0.8B, 2B, 4B, 9B, 27B, 35B-A3B, 122B-A10B)で、textとvisionの両方のファインチューニングを扱う。UnslothはFA2系セットアップ比で 1.5x 学習速度、50% VRAM削減 を主張し、bf16 LoRA時のVRAM目安として 0.8B:3GB、2B:5GB、4B:10GB、9B:22GB、27B:56GB を提示している。
技術的に重要な論点
- MoE運用: 35B-A3Bや122B-A10Bではbf16 LoRA/FFTを中心にし、4-bit QLoRAは推奨しない方針。
- 依存関係: Qwen3.5では transformers v5 が前提。旧バージョンは非推奨。
- Reasoning維持: reasoning形式の学習例を最低75%混ぜると挙動保持に有利と説明。
- 展開先: 学習後はGGUF、vLLM、Ollama、llama.cppなどへエクスポート可能。
実務への示唆
このガイドの価値は、初期設定の迷いを減らすことにある。まずbf16 LoRAで基準線を作り、品質とレイテンシを確認してからfull fine-tuningへ進む流れが取りやすい。OOM時の対処(batch/sequence調整、gradient checkpointing維持)も運用チェックリストとして実用的だ。
もちろん、速度やVRAM効率の改善幅は環境依存であり、導入前の再現検証は必須である。それでも、学習開始から配布形式選定までを一本化したドキュメントとして、現場の意思決定コストを下げる内容になっている。
Sources: Unsloth Qwen3.5 Fine-tuning Guide, Hacker News discussion.
Related Articles
r/LocalLLaMA で広がった Unsloth の Gemma 4 ガイドは、Gemma-4-E2B と E4B を 8GB VRAM でローカル fine-tuning できると訴える。投稿では約 1.5 倍の training speed、FA2 比で約 60% 少ない VRAM、そして初期 Gemma 4 の training・inference bug fix を practical workflow としてまとめている。
r/MachineLearning の project post が、Apple の MLX stack を Unsloth 互換に近い API で包む mlx-tune を紹介した。Apple Silicon Mac 上で SFT、DPO、GRPO、LoRA、vision-language fine-tuning を試したい開発者向けの実用的な bridge だ。
Hacker Newsで上位に入った投稿が、Apple研究者による simple self-distillation 論文を押し上げた。verifier model や reinforcement learning なしで code generation の pass@1 を改善できるという主張だ。
Comments (0)
No comments yet. Be the first to comment!