3 月 18 日,昆仑万维正式开源首款工业界多模态思维链推理模型 Skywork R1V,即日起开源模型权重和技术报告。
模型权重下载
Hugging Face:
https://huggingface.co/Skywork/Skywork-R1V-38B
GitHub:
https://github.com/SkyworkAI/Skywork-R1V
详细技术报告
https://github.com/SkyworkAI/Skywork-R1V/blob/main/Skywork_R1V.pdf
开启多模态思考新时代
继 OpenAI o1 和 DeepSeek-R1 在全球掀起长思考模型热潮后,大模型进入新技术范式。昆仑万维秉持实现 AGI 的初心,积极贡献开源社区,正式开源 Skywork R1V 多模态视觉推理模型,成为中国第一个开源「多模态推理模型」的企业。
什么是视觉推理模型?
视觉推理模型是一类能够解决需要思维链(Chain-of-Thought)的视觉任务的模型,通过对视觉信息进行多步逻辑推理与分析,逐步推导出最终结果。这种模型不仅关注图像内容的识别与理解,更强调通过层层递进的推理路径,实现复杂视觉问题的精准求解,例如视觉逻辑推理、视觉数学问题、图像中的科学现象分析、医学影像的诊断推理等,从而有效拓展了视觉大模型的应用边界。
无论是日常繁琐的工作任务、复杂的数据分析、难以解答的学术问题,还是前所未见的陌生场景,都可以交给 Skywork R1V 进行高效处理。
快速体验下来,R1V 的视觉理解和推理能力双双在线。这样的模型能力是如何炼成的呢?
强大推理能力,刷新跨模态任务新高度
在 Reasoning 推理能力方面,Skywork R1V 实现了模型的顶尖逻辑推理与数学分析能力。在权威的 MATH500 和 AIME 基准测试中,Skywork R1V 分别取得了 94.0 和 72.0 的高分,明显领先于行业内众多主流模型。Skywork R1V 在纯文本复杂推理任务中展现出卓越性能,使其在逻辑推理和数学问题求解领域展现出人类专家级别的水准。
在 Vision 视觉理解能力方面,Skywork R1V 成功地将其强大的文本推理与思维链推导能力高效迁移到视觉任务中。凭借创新的跨模态迁移技术与推理优化框架,Skywork R1V 能够高效解决需要多步视觉推理的问题,在 MMMU 与 MathVista 等视觉推理基准中分别取得了 69 和 67.5 的优异成绩。这些结果不仅明显超越了多个近似大小的开源竞争模型,更达到与规模更大的闭源模型媲美的水准,充分证实了 Skywork R1V 在需要视觉思维链推理的跨模态任务中的领先优势。
Skywork R1V 通过视觉与文本能力的深度融合和视觉思维链推理能力的突破,推动了多模态推理模型的进一步发展,标志着人工智能领域的又一重大进步。
目前,Skywork R1V 已全面开源,期望助力全球范围内更多视觉推理任务的学术研究与产业应用探索。
和开源同规模或更大规模模型的对比,Skywork R1V 38B 体现出行业显著优异的推理能力,以及领先的多模态视觉理解能力。如下图,与开源同规模或更大规模模型的对比:
与闭源头部模型性能对比,R1V 38B 模型性能媲美甚至超越更大开源模型以及主流闭源模型。如下图,与开源大尺寸模型与闭源专有模型的对比:
三大核心技术创新,引领视觉推理新突破
Skywork R1V 能够达到当前的性能高度,依赖于以下三项关键技术创新:
1、文本推理能力的多模态高效迁移
昆仑万维团队首次提出利用 Skywork-VL 的视觉投影器,无需重新训练语言模型和视觉编码器,即可实现文本推理能力的高效迁移到视觉任务,同时保留了优秀的原本推理文本能力(AIME 72.0,MATH500 94.0)。
2、多模态混合式训练(Iterative SFT+GRPO)
通过结合迭代监督微调(Iterative SFT)和 GRPO 强化学习,分阶段对齐视觉-文本表征,实现跨模态任务的高效融合,极大提升跨模态任务的表现。推动模型在 MMMU 基准达到 69 分的能力,同时在 MathVista 达到 67.5 分,与更大规模的闭源模型基本持平。通过反复迭代地利用高质量数据与高难度数据的组合,实现模型持续的知识巩固与错误纠正,显著提升了多模态推理的精度与泛化性能。
图丨多模态混合式训练(来源:Skywork R1V 技术报告)
3、自适应长度思维链蒸馏
团队提出了一种基于视觉-文本复杂度的自适应推理链长度控制机制,动态优化模型推理过程,避免模型“过度思考”,提升推理效率。结合多阶段自蒸馏策略,进一步提升了数据生成与推理过程的质量,促进了模型在复杂多模态任务中的表现。
图丨自适应长度思维链蒸馏(来源:Skywork R1V 技术报告)
Skywork R1V 在训练过程中创新性地采用了三阶段方法,使得文本端强大的推理能力得以高效迁移至视觉任务上,具体训练流程如下:
1、STEP1 视觉语言表征的初始对齐
训练时首先使用轻量级的视觉适配器(MLP)连接视觉编码器(ViT)与语言模型,在已有的 200 万条常规多模态数据上进行训练,使得 MLP 初步学习如何将图像特征映射至语言空间。这一阶段仅训练 MLP 适配器,视觉编码器和语言模型参数保持冻结不变,快速、高效地实现视觉与语言表征的初步对齐。
2、STEP2 推理能力迁移
利用第一阶段训练好的 MLP 适配器,直接将视觉编码器与原始的强推理语言模型(R1-distilled-Qwen-32B)连接,形成 Skywork-R1V 视觉推理模型。虽然此时语言模型的参数发生了改变,但得益于语言模型架构的高度相似性和 MLP 的泛化能力,重新组装后的模型已能表现出一定的视觉推理能力,初始性能即达到业内同等规模的先进水平。
3、STEP3 视觉与文本模态精准对齐
最后,采用创新的“混合优化框架”,进一步精准对齐视觉和语言模态的表征。这一阶段分为两大步骤:迭代监督微调(Iterative SFT)和群组相对策略优化(GRPO)强化学习。在整个训练过程中,Skywork-R1V 还创新性地引入了“自适应长度思维链蒸馏技术”,动态优化推理链长度,防止模型过度思考,从而提升了推理效率和质量。
通过以上的训练策略,Skywork R1V 在视觉推理任务上取得突破性进展,并在多个公开评测基准中达到或超过了现有领先模型的性能。
此外,Skywork 团队多模态理解模型也在进行 "全面贯通" 的进化,将视觉多模态扩展为全模态模型,引入语音理解能力。当前,全模态模型往往受限于特定领域不仅需要独立训练多个专业模型,更面临跨模态协同的算力挑战。
基于 R1V 模型,Skywork 团队设计了一种灵活在 R1V 中扩展语音理解模态的方式,从而实现一个全模态思考大模型,该在单个模型中同时实现图像、视频、语音的全模态理解能力,并在语音和视觉理解评测中斩获多项 SOTA 成绩。我们将陆续公布测评成绩、开源全模态思考大模型。
持续开源回馈社区,坚定迈向 AGI
2023 年 10 月以来,昆仑万维陆续开源了百亿级大语言模型「天工」Skywork-13B 系列、数字智能体全流程研发工具包 AgentStudio、4000 亿参数 MoE 超级模型、2 千亿稀疏大模型 Skywork-MoE、推理模型 Skywork-o1-Open 等。2025 年 2 月 18 日,昆仑万维同时将 SOTA 级别的 SkyReels-V1 和 SkyReels-A1 进行开源。
在语言生成模型、AI Agent、推理模型、视频生成模型等相继开源、多点开花之后,我们正式开源 Skywork R1V 多模态推理模型,在文本-视觉多模态推理方向再下一城,成为中国第一家开源多模态思考模型的企业。
中国企业过去一年在 AI 领域的开源贡献,让全世界 AI 从业者和开发者享受到了技术共享带来的普惠发展。DeepSeek 的开源为 AI 行业提供了新的发展范本,多项开源成果显著降低了 AI 技术的应用门槛、促进全球 AI 技术的民主化。昆仑万维作为中国 AI 领军企业,我们将持续开源优秀的模型、数据集等,共建开发者生态、加速技术创新、降低应用门槛、推动技术平权和 AI 行业发展。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。