一个月前,人民网发布了一篇文章,题为《DeepSeek 最大的价值不是被膜拜,而是被超越》。
文章认可 DeepSeek 对于中国 AI 发展的里程碑式意义,却也呼吁市场保持理性,全球 AI 竞争才刚刚起跑,当下远没到摇旗呐喊的时候。
技术上的跃升过后,更大的战场在于,如何让技术的价值在各行各业最大程度释放。
不可否认,在 OpenAI o1 和 DeepSeek R1 的带动下,深度推理模型已然成为大模型落地应用的“必答题”。然而,深度推理模型真正从实验室走向真实场景,仍要面临重重挑战。
具体来看,训练层面,深度推理模型对数据质量要求极高,需要融合结构化知识与海量非结构化数据,但传统强化学习方法存在样本覆盖不均、难度分布失衡问题,导致模型“偏科”;推理层面,MoE 架构虽通过稀疏激活专家提升训练效率,但在实际部署中因批量处理能力弱、显存占用高,可能导致延迟陡增。
而在基础设施层面,中美博弈态势越发紧张,美国对华算力管控趋严(如 H20 芯片禁售),进一步加剧了供应链风险。在此背景下,加速国产替代已是必然。不过,虽然国产算力平台已经快速发展,但在训练大规模深度推理模型时,仍面临适配难度高、集群稳定性不足等挑战。
落实到具体的企业部署环节,大模型私有化部署也有一定算力需求,很多中小企业难以承受。同时,行业场景对模型定制化需求强烈,但现有工具链支持不足,导致定制周期长、成本高。
在此背景下,市场迫切需要全栈自主可控、低成本、高性能的深度推理模型,补齐技术和需求之间的鸿沟。
4 月 20 日,深度推理大模型讯飞星火 X1 迎来全新升级,给上述疑难杂症提供了一个高效的解法。
作为业界唯一基于全国产算力训练的深度推理大模型,星火 X1 在数学、代码、逻辑推理、文本生成、语言理解、知识问答等通用任务效果上显著提升,全面对标 OpenAI o1 和 DeepSeek R1。
具体来看,星火 X1 的突出表现来源于三大技术创新:
首先,星火 X1 引入基于问题复杂度的大规模多阶段强化学习方法,显著提升了模型的泛化能力;同时还开发了一种强化学习动态更新算法,能够根据样本采样的长度灵活调整更新速率,以优化学习效率。
其次,星火 X1 探索了一种统一模型下的快慢思考混合训练方法,可基于系统指令控制模型是否深度思考,为下游任务提供了更加灵活、高效的部署体验。
在工程技术方面,星火 X1 也实现了多项创新,例如:采用显存动态卸载技术大幅提升了处理长文本推理时的并发性能;通过训推共卡协同机制实现了训练与推理资源的有效转换;利用推理引擎的冬眠机制实现了快速启动和状态恢复。
这些技术创新共同确保了星火 X1 在国产计算平台上能够实现高效且稳定的强化学习训练全流程。
具体到部署环节,星火 X1 还对其模型定制优化工具链进行了全面升级,现在支持 SFT(监督微调)和强化学习两种模型定制优化方案。这意味着仅需使用 16 张华为 910B 芯片,就能高效完成针对特定行业的定制与优化工作,有效降低了企业 AI 的定制标准。
更值得一提的是,“满血版”的星火 X1 系统只需配备 4 张华为 910B 芯片即可实现部署,极大地简化了私有化部署的流程,进一步推动了 AI 普惠的进程。
目前,星火 X1 已在教育、医疗、司法等领域相继落地应用。
在全栈自主可控方面,科大讯飞与华为昇腾联合团队在前期工作基础上再获突破,升级 MoE 模型的 PD 分离 + 大规模专家并行系统方案,集群推理性能翻番,包括 PD 分离部署提升 20%+ 性能、MTP 多 token 预测技术提升 30%+ 整体性能、专家负载均衡算法优化使集群吞吐提升 30%+,以及异步双发射技术降低服务请求调度耗时提升 10% 系统性能。
可以看到,从算法创新到完善应用工具链,再到国产基础设施生态建设,科大讯飞已经在国产 AI 全栈自主可控的方向跑通了自己的模式。
自 1999 年成立以来,科大讯飞一直坚持“技术顶天,应用立地”的准则,他们技术起家,在语音识别、机器翻译、认知智能等赛道持续深耕,创下多个“首次突破”的纪录。
而此次星火 X1 的升级,是其在 AI 核心技术领域拿下的又一个“首次突破”。于中国 AI 行业而言,这是又一次里程碑式意义的技术跃升;而对于科大讯飞而言,这也是又一次宝贵的自我超越。
正如开篇所提人民网文章中所写到的那样:“DeepSeek 最大的价值不是被膜拜,而是被超越!包括自己超越自己。唯此,才是对 DeepSeek 最真诚的爱护、最本质的尊重!”
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。