Redditで話題のLiquid AI LFM2.5-350M、350Mパラメータでagentic edgeを狙う
Original: Liquid AI releases LFM2.5-350M -> Agentic loops at 350M parameters View original →
LocalLLaMAで意外なほど強い反応を集めたreleaseの一つが、Liquid AIの LFM2.5-350M だった。このmodelの魅力は frontier-chat performance ではない。350M parameter という小ささで、tool use、structured extraction、edge deployment に合わせて意図的に調整されている点にある。
Liquid AIの2026年3月31日付blog postによれば、新版は pretraining を10Tから28T tokenへ増やし、large-scale reinforcement learning を追加した。会社はこのmodelを function calling、structured output、large-scale data processing 向けに位置づけている。benchmark table は Reddit の見出しより具体的だ。前世代の LFM2-350M と比べると、IFBench は 18.20 から 40.69、CaseReportBench は 11.67 から 32.45、BFCLv3 は 22.95 から 44.11 に改善したとされる。さらに llama.cpp、MLX、vLLM、SGLang、ONNX、OpenVINO を含む day-one support も打ち出している。
このreleaseが信頼しやすいのは、限界を明示している点だ。Liquidは LFM2.5-350M を universal model として売り込まず、math、code、creative writing には推奨しないとしている。つまり戦略は明快で、巨大modelの代替ではなく、反復的な agentic loop や data-heavy な enterprise task を小さな model に任せることだ。Reddit で注目されたのも、この発想が2026年の大きな流れと重なるからだ。すべての仕事を frontier model に寄せるのではなく、edge には小さく速い task-shaped model を置き、本当に必要な場面だけ大きいmodelを呼ぶ構成が現実味を増している。
もし公表された数値が実際の pipeline でも維持されるなら、LFM2.5-350M は parameter count 以上に重要になる。350M model が demo用の toy を超えて、信頼できる tool-use worker になれるかどうか。LocalLLaMA はその可能性をかなり早く見抜いたと言える。
Related Articles
Hacker Newsに投稿されたPrism MLの1-Bit Bonsaiは、1.15GBの8B modelからiPhone級の1.7B modelまでを掲げ、1-bit weightでedge inference economicsを作り替えようとしている。焦点はparameter countではなく、intelligence densityとhardware fitにある。
r/LocalLLaMAで注目を集めたPrismMLの1-bit Bonsaiは、8.2Bパラメータのモデルを1.15GBに収めるend-to-end 1-bit設計を前面に出している。焦点は単なる圧縮ではなく、オンデバイスでのthroughputとenergy efficiencyの実用化だ。
r/LocalLLaMAの投稿は142 pointsと29 commentsを集め、CoPaw-9Bへの初期関心を示した。議論の中心は、Qwen3.5系の9B Agentモデル、262,144 tokensのcontext、そしてGGUFやquantized releaseが早く出るかどうかだった。
Comments (0)
No comments yet. Be the first to comment!