Poolside、33B/3BのLaguna XS.2を開放 単一GPU級コードモデルが西側OSS本戦へ

Original: Poolside opens Laguna XS.2, a 33B/3B coding model for one GPU View original →

Read in other languages: 한국어English
LLM Apr 29, 2026 By Insights AI 1 min read Source

なぜこの投稿が効くのか

コード生成向けのオープンウェイトモデルは増えているが、実運用まで見据えて試せる選択肢はまだ多くない。Poolsideが4月28日にXへ出した一文は、その空白をかなり正面から突いた。会社はLaguna XS.2を"33B total / 3B active"、単一GPUで回せる設計、Apache 2.0での公開という要点で押し出した。長いコードタスクやエージェント実験を、閉じたAPIの都合に縛られず回したい開発者には重い一手だ。

"33B total / 3B active"

このアカウントが重要なのは、単なる告知口ではなく公開の起点になっているからだ。Poolsideは同日公開の公式ローンチ記事で、自社をagentic modelに集中する研究組織として位置づけ、今回が初めて広く外部へモデルを出す節目だと書いている。XS.2と同時に225B規模のLaguna M.1、端末型のコーディングエージェントpool、開発環境Shimmerも前に出した。つまり、この投稿は単発の話題づくりではなく、外部開発者を自社スタックへ引き込む開始線だ。

数字の裏付けも薄くない。Poolsideの技術ディープダイブによれば、XS.2は33B総量 / 3B活性のMoEで、学習量は30T超、SWE-bench Proは44.5%、Terminal-Bench 2.0は30.1%。しかも公開5週間前から事前学習を走らせ、社内RLで使ってきたエージェントハーネスまで一緒に出している。第三者検証には時間がかかるとしても、初回のオープンウェイト公開としてはかなり追える材料がそろった。

次に見るべきは、コミュニティ再現で数字がどこまで持つか、そして単一GPU運用の約束が実際の開発フローでどこまで成立するかだ。予告されたXS.2-baseや追加フレームワーク対応までつながれば、この投稿はPoolsideが限定的な導入案件の世界から、公開コードモデル競争の本戦へ出てきた瞬間として残るかもしれない。出典: Poolside元投稿 · 公式ローンチ記事 · 技術ディープダイブ

Share: Long

Related Articles

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.