免费POC, 零成本试错
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


我要投稿

Google 发布 Gemini 3.1 Flash-Lite:每秒 363 tokens,百万 token 只要 $0.25

发布日期:2026-03-04 08:03:29 浏览次数: 1649
作者:AGI Hunt

微信搜一搜,关注“AGI Hunt”

推荐语

Google 最新推出的 Gemini 3.1 Flash-Lite 模型,速度提升45%的同时价格大幅下降,堪称大模型市场的"性价比之王"。

核心内容:
1. 惊人的性能提升:363 tokens/秒输出速度,首token响应提升2.5倍
2. 超低定价策略:输入$0.25/百万tokens,输出$1.50/百万tokens
3. 动态思考能力:可根据任务复杂度自动调整推理深度

杨芳贤
53AI创始人/腾讯云(TVP)最具价值专家

Google 刚发布了 Gemini 3 系列的最新成员,Gemini 3.1 Flash-Lite,主打一个又快又便宜。

这个模型有多快呢?

输出速度达到了 363 tokens/秒,而上一代 Gemini 2.5 Flash 是 249 tokens/秒,直接快了 45%。首个 token 的响应速度更是提升了 2.5 倍

简单说就是,你话还没问完,它答案都快出来了。

价格也砍了

快就算了,价格还降了。

输入 $0.25/百万 tokens,输出 $1.50/百万 tokens。跟上一代比,输入便宜了 17%,输出便宜了 40%。

这个价格在当前的大模型市场里,已经属于「白菜价」级别了。Google 的意思很明确:大规模调用的场景,用这个就对了。

跑分不差

便宜归便宜,但跑分并没有拉胯。

在 Arena.ai 排行榜上拿了 1432 Elo,几个关键基准测试的成绩:

  • GPQA Diamond(科学知识):86.9%

  • MMMU Pro(多模态推理):76.8%

  • Video-MMMU(视频理解):84.8%

  • MMMLU(多语言问答):88.9%

  • LiveCodeBench(代码生成):72.0%

Google 说它在推理和多模态理解上,超过了同级别的其他模型。考虑到它的价格,这个性价比确实有点离谱。

动态思考

Gemini 3.1 Flash-Lite 有个有意思的功能:动态思考级别(dynamic thinking levels)。

开发者可以根据任务复杂度来调整模型的推理深度。翻译、内容审核这种简单任务,用浅层推理就够了,省钱省时间。生成 UI 界面、跑模拟这种复杂任务,就让它深度思考。

这就好比一个员工,简单活儿不磨蹭,难的活儿也能啃下来,自己知道什么时候该省力什么时候该拼命

支持全家桶

模态方面,Gemini 3.1 Flash-Lite 支持文本、图片、音频、视频输入,上下文窗口 100 万 tokens,最大输出 64K tokens

基于 Gemini 3 Pro 架构打造,该有的能力都没缩水。

谁在用

几家早期合作伙伴已经在用了,包括 Latitude、Cartwheel 和 Whering。反馈是:表现接近高端模型的水准,能跟复杂指令,能保持上下文理解。

Google 给它定位的典型场景包括:

大规模翻译、内容审核、客服系统、数据分析,以及任何对延迟敏感的实时应用。

Gemini 3.1 Flash-Lite 目前已在 Google AI Studio 和 Vertex AI 上以预览版提供。

363 tokens/秒的速度加上白菜价的定价,Google 瞄准的就是那些需要大规模 API 调用的开发者和企业。

53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询