日前,在 2025 全球开发者先锋大会上,中科曙光正式发布 DeepAI 深算智能引擎,通过打造端到端全栈 AI 加速套件,助力各行各业 AI 应用开发与落地。
中科曙光智能计算产品事业部副总经理胡晓东
DeepSeek 等大模型在全球范围内的爆火,进一步激发了各行各业对于低成本、高效率的 AI 需求。多年前中科曙光就预见到“算力即是生产力”的大势所趋,针对大模型在多元场景的实际需求,DeepAI 深算智能引擎带来三大升级:
● 高性能:全面支持基于新一代国产 AI 异构加速卡的框架 / 组件功能适配,并深度优化算子,性能总吞吐量提升 120%;
● 高易用:自研独立完整软件栈,同时完全兼容主流生态,CUDA 核心组件功能覆盖率除硬件外达到 100%;
● 高耦合:推出大模型应用平台和大模型云原生 AI 平台,支持主流大模型开放纳管。
围绕“高性能、高可用、高耦合”持续迭代,DeepAI 深算智能引擎为广大开发者群体提供灵活、易用、低成本的 AI 套件,帮助客户围绕 DeepSeek 等大模型构建 AI 能力,真正实现人工智能从技术积累到价值释放的关键跃迁。
全链条优化
大模型从训练开发到推理部署,性能调优是关键支撑。为此,在去年推出的 Al 软件栈 DAS 基础上,DeepAI 深算智能引擎从 GPUFusion 兼容层、基础算子层、框架工具层、模型扩展组件层等四个层面入手,进行深度优化,目标算子性能提升 30-70%,模型性能提升 20-50%,单卡推理速度最高提升 1 倍以上。
针对新一代国产 AI 异构加速卡,DeepAI 深算智能引擎实现“算子-框架-模型”全链条深度优化,并首发自研推理框架 SGInfer,提供包括稀疏化实现、runtime 层优化、图层优化等在内的多种策略,单卡推理性能总吞吐量最高提升 1 倍以上,做到“软硬协同、敏捷开发、高效部署”。
全周期服务
围绕大模型开发、训练、微调、推理、部署等全流程,DeepAI 深算智能引擎内嵌 DAP 智能平台,基于国产 AI 异构加速芯片打造大模型应用平台、云原生 AI 平台,预置 100 + 关键场景应用、300 + 精调模型与加速算法。
其中,大模型应用平台具备知识融合增强、智能体可视化编排、数据智能分析能力,云原生 AI 平台具备数据处理、模型训练和微调、大模型推理服务能力,共同为大模型的多元场景落地提供“数据治理-算法研发-模型部署-应用集成”全生命周期服务。
全场景适配
面向金融、医疗、政务、能源、科研、教育等行业场景,DeepAI 深算智能引擎依托完整软件栈和优化集成、完善的模型适配基础、广泛应用的 AI 智能平台,覆盖从十亿级推理到千亿级训练的全场景产品方案,快速响应不同行业、不同场景定制需求,让 AI 变得触手可及。
截至目前,中科曙光以 DeepAI 深算智能引擎为核心,已经进入众多关键行业,持续为中国气象局、深圳纪委、中国电信天翼云、PICC 人保财险、中石化物探院等头部客户提供高品质服务。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。