设置
  • 日夜间
    随系统
    浅色
    深色
  • 主题色

从模型接入到训练优化全流程,联发科打造 AI 开发“最强工具链”

2025/4/11 16:50:25 来源:之家网站 作者:- 责编:-

在全球 AI 技术迅猛发展的背景下,联发科于近期举办了以“AI 随芯,应用无界”为主题的天玑开发者大会 2025(MDDC 2025)。此次大会汇聚了全球顶尖开发者、知名终端厂商和产业链巨头,被誉为“AI 生态春晚”。联发科在会上启动了“天玑智能体化体验领航计划”,并发布了天玑开发工具集、天玑 AI 开发套件 2.0、全新升级的天玑星速引擎以及旗舰 5G 智能体 AI 芯片天玑 9400+,为 AI 应用和移动游戏开发提供了全面的解决方案。

大会上,联发科定义了“智能体化用户体验”的五大特征:主动及时、知你懂你、互动协作、学习进化和专属隐私信息守护。这五大特征需要跨越从芯片、模型、应用、终端乃至整个生态系统的系统性革新,更需要高效、强力的开发者解决方案。为此,联发科带来了一站式可视化智能开发工具 —— 天玑开发工具集,包含 AI 应用全流程开发工具 Neuron Studio,并带来全新升级的天玑 AI 开发套件 2.0,打造了一整套围绕 AI 开发效率与落地路径展开的“系统性解法”,为开发者提供了 AI 应用开发工具全家桶。同时,全新升级的旗舰 5G 智能体 AI 芯片天玑 9400 + 也为智能体化用户体验提供了牢固的算力基石。

Neuron Studio 打造全流程一站式开发体验,为 AI 应用开发按下加速键

AI 应用的开发瓶颈,从来都不是“点的问题”,而是“链的问题”:开发工具碎片化,调优过程靠手动,单模型分析效率低,成为开发者最头疼的三大痛点。在 Neutron Studio 出现之前,AI 应用开发往往意味着多个工具链的反复切换,兼容适配问题频发,开发效率大打折扣。

而联发科的 AI 应用全流程开发工具 Neuron Studio 提供了最优解。Neuron Studio 可针对模型到应用,提供一站式、全链路、自动化的开发协助,不仅让 AI 应用开发的全流程可视化,更带来整个多种工具的一站式开发能力,还支持神经网络自动化调优和跨模型全链路分析功能,针对 AI 应用开发的三大痛点逐个击破。

当前 AI 应用开发者在使用开发工具时会面临一个很头疼的问题,种类多、功能不聚合、过于碎片化,导致开发过程非常复杂。Neuron Studio 整合了多个 MLKits 工具,包含模型转换、模型量化和模型调优,将关键模块融合成一站式、可视化的完整开发链路,开发者不再需要“拼积木式”组合多个工具,只用一套工具就可以已全部搞定,极大提升开发效率。

Neuron Studio 还支持自动化调优神经网络使用的带宽及性能,在开发过程中,将性能和内存占用自动优化至最佳配置。而且,开发者可以全程监控大模型演化过程。以前万组参数手动调优动辄需要一周,而现在只要几个小时即可完成。

此外,Neuron Studio 打造了跨模型全链路分析功能,提供全局视角和执行流程。开发者不在需要针对大模型中不同模块各自独立分析,实现“全局视角、一站掌控”,大幅节省模型分析时间。

这不仅仅是工具的升级,更是迈向智能体化用户体验的关键基础设施。

天玑 AI 开发套件 2.0,全面释放天玑端侧 AI 能力

去年,天玑 AI 开发套件一经发布就广受开发者好评和推荐。在 MDDC 2025 上,联发科带来了全面升级的天玑 AI 开发套件 2.0,在模型库规模、架构开放程度、前沿端侧 AI 技术支持和端侧 LoRA 训练落地等方面均迎来全面跃迁,为开发者提供了更全面、更开放、更强大的端侧 AI 开发解决方案。

端侧 AI 应用开发往往需要调用各种各样的大模型能力,需要更丰富、类型更多的模型适配。为此,Gen-AI Model Hub 全面扩容,模型数量在原有基础上激增了 3.3 倍,并支持 DeepSeek-R1 蒸馏模型、通义千问、混元等多种先进端侧大模型,还包含视觉、语言、多模态等多种多样的大模型,开发者可以通过 Gen-AI Model Hub 一键调用模型能力,让 AI 应用开发选择更丰富。

为了让开发者免受即有模型库的限制,联发科还首发了开源弹性架构。区别于过往的开放接口,只能部署特定架构模型,开放弹性架构允许开发者直接调整平台源代码,无需等待芯片厂商的支持,即可完成目标或其他自研大模型轻松部署。让 AI 应用开发不用“等平台”,彻底释放开发效率和模型接入自由度。

自 DeepSeek 横空出世以来,这种更适合端侧部署,回答效率更高效的训练模式快速引爆了 AI 行业,主流大模型纷纷加强了推理能力。天玑 AI 开发套件 2.0 全面支持 DeepSeek 四大关键技术:混合专家模型(MoE)、多 Token 预测(MTP)多头潜在注意力(MLA)、FP8 推理(FP8 Inferencing),实现 Token 产生速度提升 2 倍以上、内存带宽占用量大幅度降低 50%,让端侧 AI 推理更聪明、响应更迅速。

天玑 AI 开发套件 2.0 还首次引入基于 NPU 的端侧 LoRA 训练,开发者在天玑 NPU 上进行运算训练,相比基于 CPU 的训练方案,训练速度猛增 50 倍,将训练时间从一整天缩短至半小时。更快的端侧 LoRA 训练,让端侧 AI 基于用户端侧数据提升个性化体验,让终端成为更懂用户的个性化智慧伙伴。

智能体用户体验的进化,从生态整合与携手跃迁开始

本次 MDDC 2025,联发科不仅带来了更加强大、全面的开发者解决方案,更展示了不断拓展的天玑 AI 生态。从去年 MDDC 2024 之后,天玑 AI 生态伙伴数量大幅增长了 3 倍,天玑 AI 开发套件下载量也同比增长 5 倍,可见天玑的 AI 开发者解决方案已经被开发者高度认可,天玑 AI 生态圈正在飞速成长起来。

联发科与 OPPO 深度合作,共同研发,借助天玑 AI 开发套件中支持 DeepSeek 的四大关键技术,快速实现 MoE 技术的端侧部署,Token 产生速度提升了 40%,让端侧大模型拥有更高的计算效率和推理性能,使端侧 AI 交互响应更及时,用户体验更贴心。

联发科还与 vivo 和全民 K 歌携手,借助天玑 AI 人声萃取技术,大幅提升录音人声质量,将 vivo X200s 打造成安卓首款 K 歌旗舰手机,并获得臻品录音 Pro 级认证,给用户带来一款录音室级的 K 歌神器。

基于天玑 AI 开发套件的开源弹性架构,联发科还与美图合作完成美图自研 PIX GP 模型的整合,并且针对模型进行全链路微秒级分析,以确保最佳的端到端性能表现。在双方的整个合作流程中,开发效率提升了 30%。

天玑 AI 生态同样拓展到了智能座舱领域。联发科和绝影合作,快速完成了绝影的自有模型移植,使首字词生态速度比云端方案提升 70%,赋能绝影多模态智能座舱强大的端侧运行能力,让汽车拥有“有趣的灵魂”。

不仅如此,天玑 AI 开发套件已经接入 NVIDIA TAO 生态圈,实现 TAO 生态和天玑 AI 生态的全面打通。这意味着,天玑开发者将有机会获取更多 NVIDIA TAO 生态的 AI 开发资源,TAO 生态开发者可将开发成果轻松移植到天玑各类端侧平台,实现一次开发,全域应用的生态破圈。两大 AI 巨头强强联手,势必为智能体化 AI 体验时代按下超级加速键。

随着 AI 技术从“技术奇点”迈向“生态拐点”,联发科通过提升天玑 9400 + 的 AI 算力,以及推出天玑开发工具集和天玑 AI 开发套件 2.0,正引领智能体 AI 的发展。其目标是打破生态系统的边界,推动“芯片、应用、终端”三位一体的突破,加速开发者在 AI 应用从芯片底层适配到终端落地的全过程。以芯片厂商为中心的 AI 生态系统,正成为开启智能体化用户体验时代的关键,预示着“智能体化用户体验”的普及即将成为现实。

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

相关文章

关键词:业界动态

软媒旗下网站: IT之家 最会买 - 返利返现优惠券 iPhone之家 Win7之家 Win10之家 Win11之家

软媒旗下软件: 软媒手机APP应用 魔方 最会买 要知