Google DeepMind、Gemini 3.1 Flash-Liteをプレビュー提供開始
Original: Gemini 3.1 Flash-Lite has landed. It’s our most cost-efficient Gemini 3 series model yet, built for intelligence at scale. Here’s what’s new 🧵 View original →
Xでの発表と公式情報
Google DeepMindは2026年3月3日(UTC)、Xで Gemini 3.1 Flash-Lite を発表し、Gemini 3シリーズで最もcost-efficientなモデルだと説明した。一次投稿は X投稿ミラー、詳細仕様は Google公式ブログ に掲載されている。
公開された価格・性能指標
Googleの説明では、3.1 Flash-LiteはGoogle AI StudioのGemini APIおよびVertex AIでpreview提供される。価格は入力1M tokensあたり$0.25、出力1M tokensあたり$1.50。さらにArtificial Analysisを根拠に、2.5 Flash比でTime to First Answer Tokenが2.5倍高速、出力速度が45%向上したと主張している。
ベンチマーク値としてはArena.ai Elo 1432、GPQA Diamond 86.9%、MMMU Pro 76.8%が提示された。Googleは同クラス帯モデルとの比較で、コストと速度だけでなくreasoning/multimodal理解でも競争力がある点を強調している。
開発運用への意味
製品面で注目されるのは「thinking levels」の標準搭載だ。AI StudioとVertex AIで推論の深さを調整できるため、翻訳やcontent moderationのような高頻度処理から、UI生成・シミュレーション作成のような複雑タスクまで、同一モデル内で運用戦略を切り替えやすい。ブログではLatitude、Cartwheel、Wheringなど初期利用企業も紹介されている。
- コスト面: 大量リクエスト環境で単価最適化しやすい
- 速度面: リアルタイム体験に必要な低遅延を重視
- 制御面: タスク単位でreasoning強度を調整可能
総じてFlash-Liteは、最高絶対性能よりも「実運用での価格・速度・品質バランス」を重視するproductionワークロード向けの設計として位置づけられる。
Related Articles
Google DeepMindは2026年3月3日、Gemini 3.1 Flash-Liteを発表し、低価格と高速性を前面に出した。Google AI StudioとVertex AIでpreview提供され、高頻度・低遅延の開発ワークロードを主な対象とする。
Google AIはGemini 3.1 Flash-Liteの実運用例として、大量画像の仕分けや業務自動化シナリオを紹介した。Gemini API、Google AI Studio、Vertex AIのpreview導線も同時に示された。
Google DeepMindはGemini 3.1 Flash-LiteがGemini APIとGoogle AI Studioでpreview提供されると発表した。同社はこれを最もcost-efficientなGemini 3 modelと位置づけ、低価格・高速性能・調整可能なthinking levelsを強調している。
Comments (0)
No comments yet. Be the first to comment!