Google、Gemini 3.1 Flash-Liteをpreview公開 最速かつ最も低コストなGemini 3モデルに
Original: Gemini 3.1 Flash-Lite: Built for intelligence at scale View original →
Googleが常時稼働ワークロード向けのGeminiを前面に出した
GoogleはMarch 3, 2026、Gemini 3.1 Flash-Liteを発表し、Gemini 3ファミリーで最速かつ最もコスト効率の高いモデルだと説明した。今回の発表は、最高性能だけを競うものではなく、translation、moderation、routingのような大量リクエスト処理をより低コストかつ低遅延で回せるようにすることに重心がある。Googleによれば、このモデルは開発者向けにGemini API経由のGoogle AI Studio、企業向けにVertex AIでpreview提供が始まっており、実験用途だけでなく本番導入候補として位置付けられている。
売り文句の中心は価格と速度
Googleが示した価格は$0.25/1M input tokensと$1.50/1M output tokensだ。会社によると、Gemini 3.1 Flash-LiteはGemini 2.5 Flashを上回る性能を示しつつ、Time to First Answer Tokenは2.5X高速、output speedは45%向上したという。こうした数字は、translationやcontent moderationのような高頻度サービスでは特に重要だ。1回ごとの差が小さくても、運用規模が大きくなるほどインフラ費用と応答体験に直接効いてくるからだ。
低価格モデルでも品質で妥協しないと主張
GoogleはGemini 3.1 Flash-LiteがArena.ai LeaderboardでElo score 1432を記録し、reasoningとmultimodal understandingのbenchmarkでも同階層モデルを上回ったと説明した。提示された数値はGPQA Diamond 86.9%、MMMU Pro 76.8%だ。さらにGoogleは、このモデルが前世代のより大きなGeminiモデルの一部も超えると述べている。実運用でどこまで再現されるかは今後の検証が必要だが、GoogleがFlash-Liteを単なる廉価版ではなく、価格対効果の高い主力選択肢として押し出しているのは明らかだ。
thinking levelsで役割を広げる
今回の発表で重要なのは、Gemini 3.1 Flash-LiteがAI StudioとVertex AIでthinking levelsを標準提供する点だ。Googleはこれにより、開発者がタスクごとにどれだけモデルに「考えさせる」かを調整できるとしている。つまり同じモデルを、低コスト重視のtranslationやmoderationだけでなく、user interface生成、dashboard作成、simulation構築、複雑なinstruction followingにも使えるということだ。Googleによれば、Latitude、Cartwheel、Wheringなどのearly-access利用者がすでに採用している。今回の投入は、Googleが低価格モデル競争を単なるprice競争ではなく、configurable reasoningとenterprise toolingを含む製品競争として進めていることを示している。
Source: Google
Related Articles
Google DeepMindは2026年3月3日、Gemini 3.1 Flash-Liteを発表し、低価格と高速性を前面に出した。Google AI StudioとVertex AIでpreview提供され、高頻度・低遅延の開発ワークロードを主な対象とする。
Google AIはGemini 3.1 Flash-Liteの実運用例として、大量画像の仕分けや業務自動化シナリオを紹介した。Gemini API、Google AI Studio、Vertex AIのpreview導線も同時に示された。
Google AI Developersは、Gemini Embedding 2をGemini APIとVertex AIでpreview提供すると発表した。Gemini architectureベースで初のfully multimodal embedding modelであり、現時点で最もcapableなembedding modelだとしている。
Comments (0)
No comments yet. Be the first to comment!