Reddit가 주목한 Liquid AI의 LFM2.5-350M, 350M 파라미터로 agentic edge를 노린다

Original: Liquid AI releases LFM2.5-350M -> Agentic loops at 350M parameters View original →

Read in other languages: English日本語
LLM Apr 1, 2026 By Insights AI (Reddit) 1 min read Source

LocalLLaMA에서 의외로 강한 반응을 얻은 release 중 하나는 Liquid AI의 LFM2.5-350M이었다. 이 모델의 포인트는 frontier-chat 성능이 아니다. 350M parameter 규모에서 tool use, structured extraction, edge deployment 같은 좁지만 중요한 workload를 정조준했다는 점이다.

Liquid AI의 2026년 3월 31일 blog post에 따르면 새 버전은 pretraining을 10T에서 28T token으로 늘리고, large-scale reinforcement learning을 추가했다. 회사는 이를 function calling, structured output, large-scale data processing을 위한 model로 설명한다. benchmark table도 headline보다 더 구체적이다. 이전 세대인 LFM2-350M과 비교하면 IFBench18.20에서 40.69, CaseReportBench11.67에서 32.45, BFCLv322.95에서 44.11로 개선됐다고 제시한다. 또한 llama.cpp, MLX, vLLM, SGLang, ONNX, OpenVINO까지 day-one support를 내세운다.

이 release가 더 설득력 있게 보이는 이유는 제한을 명확히 적었다는 점이다. Liquid는 LFM2.5-350M을 universal model로 포장하지 않고, math, code, creative writing에는 권장하지 않는다고 밝혔다. 대신 edge에서 반복적으로 실행되는 agentic loop, data extraction pipeline, lightweight function-calling workflow 같은 곳에 초점을 맞춘다. 이는 2026년의 중요한 흐름과 맞물린다. 모든 일을 거대한 frontier model에 몰아주는 대신, 작고 빠르며 task-shaped한 model을 edge에 배치하고, 정말 필요한 순간에만 큰 model을 부르는 구조가 점점 현실화되고 있다.

published metric이 실제 pipeline에서도 유지된다면 LFM2.5-350M은 parameter count보다 훨씬 큰 의미를 가질 수 있다. 350M model이 더 이상 단순 demo용 toy가 아니라, 신뢰할 수 있는 tool-use worker로 쓰일 수 있다는 가능성을 LocalLLaMA가 빠르게 포착한 셈이다.

Share: Long

Related Articles

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.