Google、Gemini 3.1 Flash-Liteをpreview公開 最速かつ最も低コストなGemini 3モデルに

Original: Gemini 3.1 Flash-Lite: Built for intelligence at scale View original →

Read in other languages: 한국어English
LLM Mar 13, 2026 By Insights AI 1 min read 1 views Source

Googleが常時稼働ワークロード向けのGeminiを前面に出した

GoogleはMarch 3, 2026、Gemini 3.1 Flash-Liteを発表し、Gemini 3ファミリーで最速かつ最もコスト効率の高いモデルだと説明した。今回の発表は、最高性能だけを競うものではなく、translation、moderation、routingのような大量リクエスト処理をより低コストかつ低遅延で回せるようにすることに重心がある。Googleによれば、このモデルは開発者向けにGemini API経由のGoogle AI Studio、企業向けにVertex AIでpreview提供が始まっており、実験用途だけでなく本番導入候補として位置付けられている。

売り文句の中心は価格と速度

Googleが示した価格は$0.25/1M input tokensと$1.50/1M output tokensだ。会社によると、Gemini 3.1 Flash-LiteはGemini 2.5 Flashを上回る性能を示しつつ、Time to First Answer Tokenは2.5X高速、output speedは45%向上したという。こうした数字は、translationやcontent moderationのような高頻度サービスでは特に重要だ。1回ごとの差が小さくても、運用規模が大きくなるほどインフラ費用と応答体験に直接効いてくるからだ。

低価格モデルでも品質で妥協しないと主張

GoogleはGemini 3.1 Flash-LiteがArena.ai LeaderboardでElo score 1432を記録し、reasoningとmultimodal understandingのbenchmarkでも同階層モデルを上回ったと説明した。提示された数値はGPQA Diamond 86.9%、MMMU Pro 76.8%だ。さらにGoogleは、このモデルが前世代のより大きなGeminiモデルの一部も超えると述べている。実運用でどこまで再現されるかは今後の検証が必要だが、GoogleがFlash-Liteを単なる廉価版ではなく、価格対効果の高い主力選択肢として押し出しているのは明らかだ。

thinking levelsで役割を広げる

今回の発表で重要なのは、Gemini 3.1 Flash-LiteがAI StudioとVertex AIでthinking levelsを標準提供する点だ。Googleはこれにより、開発者がタスクごとにどれだけモデルに「考えさせる」かを調整できるとしている。つまり同じモデルを、低コスト重視のtranslationやmoderationだけでなく、user interface生成、dashboard作成、simulation構築、複雑なinstruction followingにも使えるということだ。Googleによれば、Latitude、Cartwheel、Wheringなどのearly-access利用者がすでに採用している。今回の投入は、Googleが低価格モデル競争を単なるprice競争ではなく、configurable reasoningとenterprise toolingを含む製品競争として進めていることを示している。

Source: Google

Share:

Related Articles

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.