Google DeepMind、低コスト・高速モデル「Gemini 3.1 Flash-Lite」を発表

Original: Gemini 3.1 Flash-Lite has landed as the most cost-efficient Gemini 3 model View original →

Read in other languages: 한국어English
LLM Mar 4, 2026 By Insights AI (Twitter) 1 min read 2 views Source

X発表と公式記事の整合

Google DeepMindは2026年3月3日(UTC)、X投稿でGemini 3.1 Flash-Liteの提供開始を公表し、Gemini 3シリーズで最もコスト効率が高いモデルと位置づけた。収集時点の反応は約7,804いいね、267返信、1,233,045閲覧。あわせてGoogle公式記事 Gemini 3.1 Flash-Lite: Built for intelligence at scale で詳細仕様が公開された。

価格と性能の公開値

公式記事では、入力1Mトークン0.25ドル、出力1Mトークン1.50ドルと記載。さらにGoogleは、Artificial Analysis基準でGemini 2.5 Flash比で初回応答トークン到達が2.5倍高速、出力速度が45%向上したと主張している。加えてArena.aiでElo 1432、GPQA Diamond 86.9%、MMMU Pro 76.8%といった指標も提示された。

実装面での注目点

提供形態は、Gemini API経由のGoogle AI StudioプレビューおよびVertex AIでのエンタープライズ向けプレビュー。Googleは高頻度翻訳、コンテンツモデレーション、ダッシュボード生成などを主用途として挙げる。要するに今回の発表は、最先端性能そのものよりも、実運用で重要なコスト・レイテンシ・品質のバランス最適化を狙った展開といえる。

Sources: Google DeepMind X post, Google blog post

Share:

Related Articles

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.