Poolside 33B·3B Laguna XS.2 오픈웨이트 공개, 1GPU 코딩 모델 경쟁 시작

Original: Poolside opens Laguna XS.2, a 33B/3B coding model for one GPU View original →

Read in other languages: English日本語
LLM Apr 29, 2026 By Insights AI 1 min read Source

왜 중요한가

로컬에서 굴릴 수 있는 오픈웨이트 코딩 모델은 많아 보여도 실제 선택지는 아직 좁다. Poolside가 4월 28일 X에 올린 글은 그 빈칸을 정확히 찔렀다. 회사는 Laguna XS.2를 "33B total / 3B active" 구조, 단일 GPU 구동, Apache 2.0 배포라는 세 문장으로 요약했다. 장문 코드 작업과 에이전트 실험을 폐쇄형 API 의존 없이 돌려보려는 개발자에게는 꽤 직접적인 신호다.

"33B total / 3B active"

이 계정이 눈에 띄는 이유는 단순 홍보 채널이 아니라 모델 출고 창구에 가깝기 때문이다. Poolside는 같은 날 공개한 공식 런치 글에서 자신들을 agentic model에 집중한 랩으로 규정했고, 이번이 처음으로 모델을 넓게 외부에 푸는 순간이라고 적었다. XS.2와 함께 225B 규모의 Laguna M.1, 터미널형 코딩 에이전트 pool, 개발 환경 Shimmer까지 같이 내놓은 것도 같은 맥락이다. 트윗 한 건이 아니라 외부 개발자를 생태계 안으로 불러들이는 개시점에 가깝다.

숫자도 구체적이다. Poolside의 기술 딥다이브에 따르면 XS.2는 총 33B, 활성 3B MoE 구조로 30T+ 토큰을 학습했고, SWE-bench Pro 44.5%, Terminal-Bench 2.0 30.1%를 기록했다. 모델은 출시 5주 전부터 프리트레이닝에 들어갔고, 자체 RL 학습에 쓰던 에이전트 하네스도 함께 배포한다. 수치를 전부 곧이곧대로 믿을 필요는 없지만, 오픈웨이트 첫 공개치고는 검증 가능한 단서가 많다.

다음 관전 포인트는 두 가지다. 커뮤니티 재현 결과가 Poolside 수치를 얼마나 따라가느냐, 그리고 단일 GPU 구동 약속이 실제 개발 워크플로에서 얼마나 버텨주느냐이다. 예고된 XS.2-base와 추가 프레임워크 지원까지 붙으면, 이번 포스트는 Poolside가 조달형 비공개 랩에서 공개 코딩 모델 경쟁자로 넘어오는 분기점으로 남을 수 있다. 출처: Poolside 원문 트윗 · 공식 런치 글 · 기술 딥다이브

Share: Long

Related Articles

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.