Xiaomi、MiMo-V2.5をMIT公開 1Mコンテキストで商用利用まで解放
Original: Xiaomi open-sources MiMo-V2.5 with 1M context and MIT terms View original →
4月27日のXiaomi MiMoのX投稿は、今週すぐ試せるオープンモデルの投入という意味でかなり重い。眺めるためのベンチマーク画像ではない。XiaomiはMiMo-V2.5をMITライセンスで正式公開し、商用展開、継続学習、ファインチューニングを追加許可なしで認めると書いた。研究限定のプレビューとは一線を画す条件だ。
“Two models, both supporting a 1M-token context window … MiMo-V2.5-Pro … ranking No.1 among open-source models on GDPVal-AA and ClawEval.”
XiaomiMiMoのアカウントは、もともとXiaomiの基盤モデルやプラットフォーム関連の更新を流す場所で、今回も重みと技術資料の両方へリンクしている。MiMo-V2.5のモデルカードによれば、このモデルはテキスト、画像、動画、音声を単一アーキテクチャで扱うネイティブなオムニモーダル設計だ。総パラメータは310B、アクティブは15B、学習トークンは約48T、文脈長は1Mトークン。これだけでも十分に大きな公開だと分かる。
さらに重いのがMiMo-V2.5-Proのページだ。XiaomiはPro版を総1.02Tパラメータ、アクティブ42Bと説明し、複雑なエージェント作業、ソフトウェア工学、長いツール利用の軌跡を狙ったモデルだとしている。カードには27Tトークン学習、数千回のツール呼び出しに耐える長距離一貫性、SGLangとvLLM向けの展開ガイドまで載っている。オープン公開と言いながら推論手順を曖昧にする例が多い中で、Xiaomiは公開日と実運用テストの間を縮めにきた。
次に見るべきは、このベンチマーク優位が独立検証でも保たれるか、そして1Mコンテキスト推論のコストがどこまで現実的かだ。それでも今日の結論は明快だ。Xiaomiは単なる重みファイルを置いたのではない。商用に使いやすく、長文脈とエージェント志向を前面に出したモデル群を、オープンな開発現場へ直接渡した。
Related Articles
重要なのは、エージェント開発の律速段階がモデル速度ではなく人間のコンテキスト切り替えにあるとOpenAIが明言した点だ。OpenAIによれば、Symphony導入後は一部チームでマージ済みPRが500%増え、開発者が無理なく扱えるCodexセッションはおおむね3〜5本だった。
Mistralは2026年3月16日、reasoning、multimodal入力、agentic codingを1つにまとめたMistral Small 4を公開した。119B total parameters、6B active parameters、256k context window、Apache 2.0、configurable reasoning_effortが主要ポイントだ。
Alibaba CloudはQwen3.6-Plusを1M context window、agentic coding、multimodal reasoningを備えた実運用向けモデルとして打ち出し、HNでも主要なAIトピックとして浮上した。
Comments (0)
No comments yet. Be the first to comment!