Reddit가 주목한 Liquid AI의 LFM2.5-350M, 350M 파라미터로 agentic edge를 노린다
Original: Liquid AI releases LFM2.5-350M -> Agentic loops at 350M parameters View original →
LocalLLaMA에서 의외로 강한 반응을 얻은 release 중 하나는 Liquid AI의 LFM2.5-350M이었다. 이 모델의 포인트는 frontier-chat 성능이 아니다. 350M parameter 규모에서 tool use, structured extraction, edge deployment 같은 좁지만 중요한 workload를 정조준했다는 점이다.
Liquid AI의 2026년 3월 31일 blog post에 따르면 새 버전은 pretraining을 10T에서 28T token으로 늘리고, large-scale reinforcement learning을 추가했다. 회사는 이를 function calling, structured output, large-scale data processing을 위한 model로 설명한다. benchmark table도 headline보다 더 구체적이다. 이전 세대인 LFM2-350M과 비교하면 IFBench는 18.20에서 40.69, CaseReportBench는 11.67에서 32.45, BFCLv3는 22.95에서 44.11로 개선됐다고 제시한다. 또한 llama.cpp, MLX, vLLM, SGLang, ONNX, OpenVINO까지 day-one support를 내세운다.
이 release가 더 설득력 있게 보이는 이유는 제한을 명확히 적었다는 점이다. Liquid는 LFM2.5-350M을 universal model로 포장하지 않고, math, code, creative writing에는 권장하지 않는다고 밝혔다. 대신 edge에서 반복적으로 실행되는 agentic loop, data extraction pipeline, lightweight function-calling workflow 같은 곳에 초점을 맞춘다. 이는 2026년의 중요한 흐름과 맞물린다. 모든 일을 거대한 frontier model에 몰아주는 대신, 작고 빠르며 task-shaped한 model을 edge에 배치하고, 정말 필요한 순간에만 큰 model을 부르는 구조가 점점 현실화되고 있다.
published metric이 실제 pipeline에서도 유지된다면 LFM2.5-350M은 parameter count보다 훨씬 큰 의미를 가질 수 있다. 350M model이 더 이상 단순 demo용 toy가 아니라, 신뢰할 수 있는 tool-use worker로 쓰일 수 있다는 가능성을 LocalLLaMA가 빠르게 포착한 셈이다.
Related Articles
Hacker News에 올라온 Prism ML의 1-Bit Bonsai는 1.15GB 8B model부터 iPhone급 1.7B model까지, 1-bit weight로 edge inference economics를 다시 쓰겠다는 시도다. 핵심은 parameter count보다 intelligence density와 hardware fit을 전면에 내세운 점이다.
r/LocalLLaMA에서 주목받은 PrismML의 1-bit Bonsai는 8.2B 파라미터를 1.15GB로 줄인 end-to-end 1-bit LLM을 전면에 내세운다. 온디바이스 배포, throughput, energy efficiency를 동시에 노린 launch라는 점이 핵심이다.
r/LocalLLaMA에서 CoPaw-9B 관련 글이 142점과 29개 댓글을 기록하며 주목을 받았다. 스레드는 Qwen3.5 기반의 9B Agent 모델, 262,144 token context, 그리고 GGUF·quantized 배포 가능성에 대한 관심을 중심으로 반응이 갈렸다.
Comments (0)
No comments yet. Be the first to comment!