Google DeepMind、低コスト・高速モデル「Gemini 3.1 Flash-Lite」を発表
Original: Gemini 3.1 Flash-Lite has landed as the most cost-efficient Gemini 3 model View original →
X発表と公式記事の整合
Google DeepMindは2026年3月3日(UTC)、X投稿でGemini 3.1 Flash-Liteの提供開始を公表し、Gemini 3シリーズで最もコスト効率が高いモデルと位置づけた。収集時点の反応は約7,804いいね、267返信、1,233,045閲覧。あわせてGoogle公式記事 Gemini 3.1 Flash-Lite: Built for intelligence at scale で詳細仕様が公開された。
価格と性能の公開値
公式記事では、入力1Mトークン0.25ドル、出力1Mトークン1.50ドルと記載。さらにGoogleは、Artificial Analysis基準でGemini 2.5 Flash比で初回応答トークン到達が2.5倍高速、出力速度が45%向上したと主張している。加えてArena.aiでElo 1432、GPQA Diamond 86.9%、MMMU Pro 76.8%といった指標も提示された。
実装面での注目点
提供形態は、Gemini API経由のGoogle AI StudioプレビューおよびVertex AIでのエンタープライズ向けプレビュー。Googleは高頻度翻訳、コンテンツモデレーション、ダッシュボード生成などを主用途として挙げる。要するに今回の発表は、最先端性能そのものよりも、実運用で重要なコスト・レイテンシ・品質のバランス最適化を狙った展開といえる。
Sources: Google DeepMind X post, Google blog post
Related Articles
Google DeepMindは2026年3月3日、XでGemini 3.1 Flash-Liteを発表した。公式ブログではpreview提供、入力1M tokensあたり$0.25・出力1M tokensあたり$1.50の価格、低遅延志向の設計が示されている。
Googleは4月21日、Deep ResearchをGemini 3.1 Proベースへ引き上げ、MCP接続とMaxモードを加えた。Web検索、アップロード済みファイル、ライセンスデータを一つの調査フローにまとめたい金融・ライフサイエンス向けの動きだ。
GoogleはAI事業が実験段階を 넘어運用段階に入ったと打ち出した。Cloud顧客の75%がAI製品を使い、過去12カ月で1兆トークン超を処理した顧客が330社、モデルAPI流量は毎分160億トークンに達したとして、Gemini Enterprise Agent Platformを本格投入した。
Comments (0)
No comments yet. Be the first to comment!