RTX 3090一枚でSimpleQA 95.7%達成:Qwen3.6-27B+エージェンティック検索
Original: We are finally there: Qwen3.6-27B + agentic search; 95.7% SimpleQA on a single 3090, fully local View original →
成果
r/LocalLLaMAで297票を集めたLDR(Local Deep Research)メンテナーの投稿によると、RTX 3090(24GB)単体でQwen3.6:27bとエージェンティック検索を組み合わせ、SimpleQA 95.7%を達成した。
構成
- ハードウェア: RTX 3090, 24GB
- モデル: Ollama経由のQwen3.6:27b
- 戦略: LangGraphエージェント(ツール呼び出し+並列サブトピック分解)
意義
SimpleQAはフロンティアモデルが90〜98%台を出すベンチマーク。コンシューマーGPU一枚で95.7%を達成したことは重要なマイルストーンだ。エージェンティック検索とローカルLLMの組み合わせが次世代ローカルAIの中心パターンになりつつある。
Related Articles
LLM Reddit 3h ago 1 min read
ローカルLLM研究者が、単一のRTX 3090でQwen3.6-27Bとエージェンティック検索を組み合わせ、SimpleQA 95.7%を完全ローカル環境で達成した。
LLM Reddit 2d ago 1 min read
LocalLLaMAが見た本題は最高速ではなかった。RTX 3090一枚で218K文脈まで伸ばし、長いtool outputでも落ちにくくした構成が評価された。
LLM Reddit 4d ago 1 min read
LocalLLaMAはこれを単なるベンチ画像として流さなかった。単一のRTX 3090でQwen3.6-27Bの処理量を平均1.98倍まで押し上げ、再学習なしで長文脈も支えるという主張がスレッドの熱源になっている。
Comments (0)
No comments yet. Be the first to comment!