Poolside、33B Laguna XS.2をオープン化 単一GPUで狙うコーディング市場
Original: Introducing Laguna XS.2 and Laguna M.1 View original →
オープンウェイトのコーディングモデル市場は、数字の大きさばかりが先に走り、実際に開発チームが回せる選択肢はまだ限られていた。Poolsideが4月28日に出したLaguna XS.2は、その現実に踏み込んだリリースだ。33B total、3B active、Apache 2.0、単一GPUでの運用を前面に置き、同時により大きなLaguna M.1も初めて公開した。エージェント型コーディング向けの西側オープンモデル群に、ようやく厚みが出始めた形だ。
重要なのはサイズ感と配備のしやすさだ。PoolsideによればLaguna M.1は225B total・23B activeで、XS.2はそれより軽く現場投入しやすい後継として設計された。両モデルは期間限定でPoolside APIとOpenRouterから利用でき、XS.2の重みはHugging Faceで配布されている。いまコーディングエージェントの現実的な壁は、ベンチマークの見栄えより、既存の開発基盤にどう組み込んで回すかにある。
今回の動きが単なるモデル公開で終わらないのもそのためだ。Poolsideはpoolというターミナル型コーディングエージェントと、Shimmerというクラウド開発環境も同時にプレビューへ出した。モデル、エージェント、実行環境を一体で押し出した格好だ。XS.2はスクラッチから学習し、完全なpost-training状態で公開したとも説明している。総合首位を名乗らなくても、限られたGPU予算で動かせる許諾の広いコーディングモデルというだけで意味は大きい。
次の焦点は、これが本当に開発現場へ入っていくかどうかだ。Poolsideは今回が初の公開モデル出荷で、LagunaファミリーはApplied Research組織のおよそ60人が構築したとしている。もしXS.2がコードエージェントやCI業務、社内IDE補助に浸透し始めれば、このニュースは一時的な順位表ではなく、西側オープンなエージェント型コーディングがどこまで育つかを測る試金石になる。
Related Articles
ローカル運用まで見据えたオープンウェイトのコードモデルはまだ少ない。Poolsideは単一GPU級の33B総量 / 3B活性MoE「Laguna XS.2」を前面に出し、技術解説ではSWE-bench Pro 44.5%を掲げた。
HNがこのリポジトリに反応したのは、また一つブラウザ自動化ラッパーが出たからではない。作業の途中でモデル自身が不足した helper を書き足しながら進む、という発想が刺さった。
OpenAIが狙っているのは会話品質の小幅改善ではなく、長時間タスクの自動化だ。公開値ではGPT-5.5がTerminal-Bench 2.0で82.7%に達し、GPT-5.4を7.6ポイント上回り、Codexではより少ないトークンで動くとされる。
Comments (0)
No comments yet. Be the first to comment!