2025 年 3 月 29 日,英特尔在北京举办了 "芯挚友技术交流会" 展示了其在 AI PC 领域的最新进展和生态布局。英特尔如今已经完成了从云边端多重 AI 算力的部署,作为 AI PC 概念的提出者和重要推动者,英特尔在端侧推出了多款处理器所提供的 CPU、GPU、NPU 三重 XPU AI 算力网,帮助消费级用户在本地就能利用 AI PC 算力能力,实现 AI 与生产生活的应用。
除了强大的 AI PC 硬件算力,英特尔也在 AI PC 软件工具链上为开发者提供充分的工具支持,帮助他们更好的完成基于端侧 AI 算力的 AI 应用开发,不断丰富 AI PC 应用生态。英特尔中国区 AI PC 产品总监孙峪在本次技术交流会上,详细阐释了如今生成式 AI 大模型及 AI PC 的诸多特点,同时也进一步为现场关注解读英特尔在当前 AI 发展过程中所扮演的重要角色作用。
DeepSeek 大模型的出现,让人人都能享受 AI 时代下智慧跃升
DeepSeek 作为当前最受关注的大模型之一,凭借其技术创新正在加速 AI 普惠化进程。DeepSeek R1 模型展现出强大的知识储备能力,尤其在文本理解、数学计算、编程辅助和逻辑推理方面表现突出。其采用 MIT 开源协议,支持灵活的私有化部署方式,显著降低了使用门槛。
孙峪在演讲中详细介绍了 DeepSeek 的三大技术亮点:MOE(混合专家)技术有效降低了对算力的要求;COT(思维链)技术提升了模型的推理能力;而投机解码技术则在不损失生成质量的前提下大幅提高了推理速度。这些技术创新使得 DeepSeek 在保持高性能的同时,API token 费用低至 0.1 元 / 30 个,性价比极高。
针对不同场景需求,DeepSeek 提供了多样化的私有化部署方案:
"满血版" 推理:部署完整的 671b 版 V3 / R1 模型,适合追求原生高质量体验的场景
"蒸馏版" 推理:提供 1.5B-70B 的轻量模型,适合本地 RAG 等效率敏感型应用
微调 / 训练:支持基于 DeepSeek 基础模型进行微调或用于合成数据训练自有模型
一体机解决方案因其 "开箱即用" 的特性受到政企客户的青睐。这种集成方案不仅实现了私有化弹性部署,还能与本地企业应用深度结合,支持 RAG 应用和企业 Agent 联动,在实际业务场景中展现出独特价值。
英特尔硬件性能:从轻薄本到高性能设备的 AI 算力支撑
英特尔硬件为 AI PC 生态提供了坚实的算力基础。现场演示中,搭载英特尔处理器的设备展现了出色的模型运行能力:
在轻薄本上运行 14B 模型生成俄罗斯方块游戏的代码,不仅实现了基础版本,还能通过交互式提示生成进阶版本,增加随机方块等复杂功能。这一演示证明了中等规模模型在移动设备上的实用性。
更令人印象深刻的是 32B 模型在超薄本上的表现。通过将内存升级至 64GB,GPU 共享 Memory 达到 36.2GB,配合量化技术和投机解码,32B 模型能够流畅运行代码生成任务,如生成五子棋游戏,最高可达 14 个 token / s 的生成速度。
特别值得注意的是投机解码技术的效果 —— 模型在代码生成时能够整行输出 token,极大提升了用户体验。孙峪特别强调:"这些都是在 6000 块钱的超薄本上实现的,确实是超高性价比之选。"
针对不同规模的模型部署需求,英特尔 Arc GPU 系列提供了灵活的解决方案:
Alchemist 家族(如 A770 16G)适合单用户 / 多用户的 32B / 70B 模型部署
Battlemage 家族(如 8580 12G)则针对 7B / 14B 模型优化,提供更加亲民的部署选择
数据精度选择上,英特尔平台支持从 FP8、FP16 / BF16 到 INT4 乃至更低比特的灵活配置,帮助用户在投资成本与性能间找到最佳平衡。同时,对上下文长度(16k 至 128k)和 SLA 指标(TTFT<5s,TPOT<100ms)的支持,确保了实际应用中的流畅体验。
软件工具链:降低开发者门槛的关键支撑
成熟的软件生态是 AI PC 发展的重要基石。英特尔提供了全方位的工具链支持,显著降低了开发者和 ISV 的应用开发门槛。
Ollama 作为轻量级框架,因其简单易用受到个人开发者欢迎。但原生 Ollama 存在硬件支持有限和模型下载网络问题。
对此,英特尔推出了 IPEX-LLM 解决方案,不仅支持 Ollama,还能充分利用英特尔 AIPC 的本地算力。特别值得一提的是今年推出的 IPEX 和 Ollama 整合包(约 200MB),通过魔搭社区下载可避免网络问题,为个人开发者提供了 "开箱即用" 的便利。
针对 ISV 更复杂的需求,英特尔与神州数码合作开发的 "爱问学" 端侧 AI 应用开发框架提供了更全面的解决方案。神舟数码 AI 生态总监莫晶晶在现场介绍了该框架的三大核心优势:
硬件抽象层:使开发者无需关注底层硬件迭代
模型仓库生态:整合 Ollama、HuggingFace 和 ModelScope 三方的模型资源
应用瘦身能力:帮助生成更轻量的最终用户安装包
技术架构上,爱问学提供统一的核心调用方式(支持 Ollama 和 OpenAI 两种风格),以及 Node、Python、C#、Java 等多语言 SDK 支持。其模块化设计内置高级对话服务、PAG 服务、ASR / TTS 等能力,开发者只需关注应用逻辑本身。
模型仓库生态方面,爱问学创造性地整合了三大平台的优点:
Ollama:适合本地实验和个人开发
HuggingFace:提供丰富的开源模型和工具链
ModelScope:侧重中文场景和行业模型优化
这种整合既解决了网络访问问题,又提供了最全面的模型选择,极大丰富了开发者的工具箱。
ISV 合作案例:五大场景落地展现 AI PC 多元价值
英特尔与众多 ISV 合作,推动 AI 技术在五大应用场景的落地,展示了 AI PC 的多元价值。
办公助手场景下,英特尔联合扣子开发的 AIPC 会议助手解决了会议记录中的痛点:本地语音转写、关键截图自动向量化存储、会后智能生成纪要等功能,显著提升了会议效率。特别是 "图片入库" 功能,可将会议截图自动存入向量数据库,支持后续语义搜索,这一创新解决了传统会议中信息碎片化的问题。
知识助手方面,神州数码的 "爱问学" 软件集成了 31 个大语言模型(从 0.5B 到 14B),并整合搜索 API 和 RAG 功能。演示中,系统成功从云南野生菌规范文档中提取信息,为用户推荐合适的食用菌种类,展现了专业知识的精准获取能力。
娱乐助手的代表是爱奇艺智能助手。这款应用既了解用户观影偏好,又能获取最新影片信息,实现了 "既陪伴又共鸣" 的观影体验。演示中,助手成功推荐年代剧并回答 "男女主角最后在一起了吗" 等剧情问题,所有处理均在端侧 GPU 完成,保护了用户隐私。
创作助手的亮点是亦心科技的 "AI 闪绘" 功能。基于英特尔 Ultra 系列 CPU 的 AI 加速能力,这款对标 Photoshop 的专业图像软件实现了准实时 AIGC 图像生成。韦祖兴现场演示了完全断网情况下的绘画创作,生成速度与云端媲美,且支持压感手写笔输入,为专业设计师提供了全新工具。
垂类助手方面,面壁智能的 8B 视觉大模型展示了强大的视频理解能力。导入熊猫视频后,模型准确描述了 "大熊猫拿起旁边竹篮里面的东西" 的内容,展现了多模态 AI 在专业领域的应用潜力。
这些案例共同证明,AI PC 不再是概念,而已在各类真实场景中创造价值。英特尔通过强大的硬件平台、完善的工具链支持和丰富的 ISV 合作,构建了完整的 AI PC 生态体系。
未来,英特尔将继续在硬件上进行创新,提升处理器性能,特别是 NPU 与 GPU 的 AI 加速能力。Arc GPU 系列的持续演进将支持更大参数的模型本地部署,而内存技术的突破(如 64GB 配置普及)将进一步提升大模型在终端设备的运行效果。
进一步完善工具链完善从而达到降低开发者门槛的目的。OpenVINO 生态的持续优化、与 Windows Copilot Runtime 的深度整合,以及对开源社区(如 IPEX 项目)的投入,都将使 AI 应用开发更加高效。特别值得期待的是 "一键部署" 解决方案的普及,将大大简化模型到应用的转化过程。
生态扩张战略已初见成效,目前英特尔全球 200 + 合作 ISV(其中中国本土 40+)以及 500 + 创新应用大赛参赛作品,展现了生态的活力。英特尔将继续通过人工智能创新应用大赛等形式,激励更多开发者参与,共同探索 AI PC 的边界。
孙峪在总结中提到:"我们正处在一个激动人心的技术变革时代。三十年前,我需要在公交车上手写代码,调试简单的游戏;今天,AI 可以帮我们自动生成复杂应用。英特尔的目标是让这种能力惠及每个开发者和最终用户。"
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。