Google DeepMind、低コスト・高速モデル「Gemini 3.1 Flash-Lite」を発表
Original: Gemini 3.1 Flash-Lite has landed as the most cost-efficient Gemini 3 model View original →
X発表と公式記事の整合
Google DeepMindは2026年3月3日(UTC)、X投稿でGemini 3.1 Flash-Liteの提供開始を公表し、Gemini 3シリーズで最もコスト効率が高いモデルと位置づけた。収集時点の反応は約7,804いいね、267返信、1,233,045閲覧。あわせてGoogle公式記事 Gemini 3.1 Flash-Lite: Built for intelligence at scale で詳細仕様が公開された。
価格と性能の公開値
公式記事では、入力1Mトークン0.25ドル、出力1Mトークン1.50ドルと記載。さらにGoogleは、Artificial Analysis基準でGemini 2.5 Flash比で初回応答トークン到達が2.5倍高速、出力速度が45%向上したと主張している。加えてArena.aiでElo 1432、GPQA Diamond 86.9%、MMMU Pro 76.8%といった指標も提示された。
実装面での注目点
提供形態は、Gemini API経由のGoogle AI StudioプレビューおよびVertex AIでのエンタープライズ向けプレビュー。Googleは高頻度翻訳、コンテンツモデレーション、ダッシュボード生成などを主用途として挙げる。要するに今回の発表は、最先端性能そのものよりも、実運用で重要なコスト・レイテンシ・品質のバランス最適化を狙った展開といえる。
Sources: Google DeepMind X post, Google blog post
Related Articles
Google DeepMindは2026年3月3日、XでGemini 3.1 Flash-Liteを発表した。公式ブログではpreview提供、入力1M tokensあたり$0.25・出力1M tokensあたり$1.50の価格、低遅延志向の設計が示されている。
Google DeepMindは2026年3月3日、Gemini 3.1 Flash-Liteを発表し、低価格と高速性を前面に出した。Google AI StudioとVertex AIでpreview提供され、高頻度・低遅延の開発ワークロードを主な対象とする。
Google AIはGemini 3.1 Flash-Liteの実運用例として、大量画像の仕分けや業務自動化シナリオを紹介した。Gemini API、Google AI Studio、Vertex AIのpreview導線も同時に示された。
Comments (0)
No comments yet. Be the first to comment!