12 月 25 日,阿里云通义千问发布业界首个开源多模态推理模型 QVQ-72B-Preview。QVQ 展现出超预期的视觉理解和推理能力,在解决数学、物理、科学等领域的复杂推理问题上表现尤为突出。多项评测数据显示,QVQ 超越了此前的视觉理解模型「开源王者」Qwen2-VL,整体表现与「满血版」OpenAI o1、Claude3.5 Sonnet 等推理模型相当。目前,开发者可在魔搭社区和 HuggingFace 平台上直接体验。
人类的推理能力植根于语言思维和视觉记忆中,正因此,利用视觉理解增强大模型推理能力,成为 AI 技术的前沿探索之一。一个月前,通义发布 AI 推理模型 QwQ-32B-Preview,即斩获 SuperCLUE 的 AI 推理模型榜单「全球开源冠军」;如今,通义团队在 Qwen2-VL-72B 开源模型基础上,研发出多模态推理模型 QVQ-72B-Preview,可实现更仔细的逐步推理,视觉推理能力也显著进步,在解决复杂问题时表现惊艳。
在考察模型视觉理解及推理的 MMMU 评测中,QVQ 取得了 70.3 分,水平已达大学级别;在聚焦数学的视觉推理测试 MathVista 中,QVQ 得分超过 OpenAI o1,印证了其强大的图形推理能力;在更具多样性和学科广度的 MathVison 评测中,QVQ 表现超越 Claude3.5 及 GPT4o,说明 QVQ 更擅长解决真实数学问题;在奥赛级别的 OlympiadBench 基准测试中,QVQ 也展现了出色的视觉推理能力。
QVQ 是一个会基于视觉进行深度思考推理的大模型。QVQ 不但能感知更准确的视觉内容,并据此作出更细致的分析推理,还会质疑自身假设,仔细审视其推理过程的每一步,经过深思熟虑后给出最后结论。QVQ 可以轻松识别“梗图”内涵;看真实照片可合理推断出物体个数及高度等信息;在面对数学、物理、化学等各科学领域难题,QVQ 能像人甚至科学家一样,给出思考过程和准确答案。
目前,QVQ-72B-Preview 已在魔搭社区和 HuggingFace 等平台上开源,开发者可上手体验。据了解,一个月前开源的推理模型 QwQ 受到全球开发者热捧,一发布就登上 HuggingFace 模型趋势榜榜首。截至目前,通义千问 Qwen 的衍生模型数突破 7.8 万个,已超越 Llama 成为全球规模最大的 AI 模型群。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。