IT之家 9 月 25 日消息,科技媒体 The Decoder 昨日(9 月 24 日)发布博文,报道谷歌升级旗下 Gemini 1.5 AI 模型,推出了 Gemini-1.5-Pro-002 和 Gemini-1.5-Flash-002,相比较此前版本成本更低、性能更强、响应更快。
成本更低
谷歌下调了 token 输入和输出费用,Gemini-1.5-Pro-002 和 Gemini-1.5-Flash-002 最高降幅 50%,提高了两种模型的速率限制,并减少了延迟。
新定价于 2024 年 10 月 1 日生效。
性能更强
IT之家援引新闻稿内容,附上新款模型的性能情况如下:
在更具挑战性的 MMLU-Pro 基准测试中,模型的性能提高了约 7%。
在 MATH 和 HiddenMath 基准测试中,数学性能显著提高了 20%。
视觉和代码相关任务也有所改进,在视觉理解和 Python 代码生成评估中提高了 2-7%。
谷歌声称,这些模型现在能在保持内容安全标准的同时,提供更有帮助的回复。该公司根据开发人员的反馈意见,改进了模型的输出风格,旨在实现更精确、更经济高效的使用。
其它改进
谷歌还升级了 8 月发布的 Gemini 1.5 实验模型,推出了 Gemini-1.5-Flash-8B-Exp-0924 升级版,进一步增强了文本和多模态应用。
用户可以通过 Google AI Studio、Gemini API 和 Vertex AI(面向 Google Cloud 客户)访问新的 Gemini 模型。针对 Gemini Advanced 用户的 Gemini 1.5 Pro-002 聊天优化版即将推出。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。