Redditで話題のLiquid AI LFM2.5-350M、350Mパラメータでagentic edgeを狙う

Original: Liquid AI releases LFM2.5-350M -> Agentic loops at 350M parameters View original →

Read in other languages: 한국어English
LLM Apr 1, 2026 By Insights AI (Reddit) 1 min read Source

LocalLLaMAで意外なほど強い反応を集めたreleaseの一つが、Liquid AIの LFM2.5-350M だった。このmodelの魅力は frontier-chat performance ではない。350M parameter という小ささで、tool use、structured extraction、edge deployment に合わせて意図的に調整されている点にある。

Liquid AIの2026年3月31日付blog postによれば、新版は pretraining を10Tから28T tokenへ増やし、large-scale reinforcement learning を追加した。会社はこのmodelを function calling、structured output、large-scale data processing 向けに位置づけている。benchmark table は Reddit の見出しより具体的だ。前世代の LFM2-350M と比べると、IFBench18.20 から 40.69CaseReportBench11.67 から 32.45BFCLv322.95 から 44.11 に改善したとされる。さらに llama.cppMLXvLLMSGLangONNXOpenVINO を含む day-one support も打ち出している。

このreleaseが信頼しやすいのは、限界を明示している点だ。Liquidは LFM2.5-350M を universal model として売り込まず、math、code、creative writing には推奨しないとしている。つまり戦略は明快で、巨大modelの代替ではなく、反復的な agentic loop や data-heavy な enterprise task を小さな model に任せることだ。Reddit で注目されたのも、この発想が2026年の大きな流れと重なるからだ。すべての仕事を frontier model に寄せるのではなく、edge には小さく速い task-shaped model を置き、本当に必要な場面だけ大きいmodelを呼ぶ構成が現実味を増している。

もし公表された数値が実際の pipeline でも維持されるなら、LFM2.5-350M は parameter count 以上に重要になる。350M model が demo用の toy を超えて、信頼できる tool-use worker になれるかどうか。LocalLLaMA はその可能性をかなり早く見抜いたと言える。

Share: Long

Related Articles

LLM Reddit 11h ago 1 min read

r/LocalLLaMAで注目を集めたPrismMLの1-bit Bonsaiは、8.2Bパラメータのモデルを1.15GBに収めるend-to-end 1-bit設計を前面に出している。焦点は単なる圧縮ではなく、オンデバイスでのthroughputとenergy efficiencyの実用化だ。

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.