设置
  • 日夜间
    随系统
    浅色
    深色
  • 主题色

体验了酷睿轻薄本 AIGC 创作力,我不禁感叹:英特尔 YES

2023/11/27 16:58:30 来源:IT之家 作者:汐元 责编:汐元

如今科技圈最火热的话题,莫过于生成式 AI。它的出现以及普及,正在逐渐改变我们工作、生活以及娱乐的方式。这一点,IT之家也有深刻的体会,比如过去小编撰写稿件需要配图,在网上检索图片是一件很头疼的事,要考虑版权、清晰度、内容契合度等,经常找一张满意的图就要花好久。

但是,在有了可以文生图的生成式 AI 大模型后,一切就简单多了,只需要输入一段文字,就能很快得到一张比较满意的图片,工作效率提升了太多。

图片 1

这不禁让小编感叹,AIGC,真的会是颠覆我们生产力的超强神器。如此强大的技术,必须和我们常用的生产工具深度融合,这样才能让它的价值充分释放。而说到生产工具,现阶段最重要的自然还是 PC。

也就是说,PC,应该成为 AIGC 释放生产力变革能量的主要战场。

好消息是,作为半导体和 PC 行业引领者的英特尔,已经在积极将生成式 AI 落地到 PC 终端上,并取得了非常突出的进展。

通常谈到 AIGC,谈到大语言模型,大家可能首先想到各种大型专业 GPU。那是因为很多 AIGC 大模型服务是部署在云端的,需要大型 GPU 提供超大的算力。即便是这样,在高峰服务时段,还是会出现生成缓慢甚至失败的情况,所以相信很多同学都有这样的需求:能不能让 AIGC 大模型在 PC 本地运行,甚至在我们日常外出办公常用的轻薄本上运行?

英特尔的回答是 YSE。

目前,以第 12 代、第 13 代英特尔酷睿处理器和英特尔锐炫 A 系列显卡为代表的英特尔多款客户端芯片均能提供强劲性能,以满足生成式 AI 对于高算力的需求。而在软件层面,英特尔则通过软件生态的构建和模型优化,进一步推动新兴的生成式 AI 场景在个人电脑的落地,广泛覆盖轻薄本、全能本、游戏本等。

图片 2

比如针对通用的大语言模型,英特尔通过第 13 代英特尔酷睿处理器 XPU 的加速、low-bit 量化以及其它软件层面的优化,让最高达 160 亿参数的大语言模型,通过 BigDL-LLM 框架运行在 16GB 及以上内存容量的个人电脑上。

这里,IT之家用实际测试让大家感受一下大语言模型在英特尔轻薄本上运行的效果。小编选择了一台通过英特尔 Evo 平台认证的轻薄本:华硕破晓 Air,这款轻薄本搭载英特尔 13 代酷睿 i7-1355U 处理器,16GB LPDDR5 内存。

接着小编在华硕破晓 Air 上装好英特尔推出的大语言模型 Demo。这个 Demo 集成了三个大语言模型,包括 ChatGLM2、LLaMA2 和 StarCoder。它们均通过英特尔的语料库进行了优化,主要的优化方式是对这些大语言模型进行量化操作,以减轻他们对本地硬件资源的需求。

测试时,小编将笔记本的网络断开,就在本地运行。

首先在聊天助手功能下问一个比较常见的人情问题,比如“朋友向我借一万块钱,但是我最近手头也比较紧,如何婉言拒绝?”这款大模型很快给出了回答,first latency 为 1490.1.ms,实际等待的时间大约只有三五秒。再看回答的内容,除了第二个建议有点问题,整体还是比较得体的。

图片 1

接着小编又考验了一下它的文案创作能力,切换到“故事创作”模式,然后问“公司的迎新晚会需要我做主持人,请帮我写一段 500 字左右的开场白。”它果然也很快就把开场白写了出来,而且文案读起来也很顺口、适当。如果是自己思考、编辑,得花很久,在 PC 上使用 AI 大模型,分分钟就搞定了。

图片 2

在英特尔大语言模型写文案的时候,小编看了一下华硕破晓 Air 性能资源的调度情况,英特尔 13 代酷睿 i7-1355U 处理器占用率达到了 100%,内存占用达到了 9.6GB(62%),Xe 核显占用也达到了 12%。看来这个运算过程确实是在本地进行的。在英特尔不断的优化和 13 代酷睿处理器算力的提升下,确实能够在轻薄本上实现 AIGC 的落地。

图片 3

下面小编又结合很多打工人经常遇到的场景做了测试,就是给活动或者项目写大纲。比如公司需要在中山公园举办一场小型产品沟通会,经费为 15000 元,需要邀请 50 名用户到场,包括产品体验、交流互动等环节,让大模型帮忙出一份流程大纲。

图片 4

图片 5

对于这个非常实际的问题,大语言模型 Demo 也给出了一份较为详细的大纲,小编看了一下,具体可行性也还不错,根据实际情况改一改,就可以使用了。要知道,这个过程都是在华硕破晓 Air 这款轻薄本端侧本地运行的,不受联网条件的限制,随时随地都能用,而且也比网上搜各种模板高效多了,就好像是 PC 天然就具备的功能一样,这就是生产力实实在在的提升。

除了这种通用的大语言模型,就像小编开头所说的,日常工作中我们还经常有作图的需求,对于一些文生图模型,这款华硕破晓 Air 也能轻松运行。

比如广为人知的开源图像生成模型 Stable Diffusion,英特尔就启用了 OpenVINO 的加速,他们开发了一套 AI 框架,通过一行代码的安装,就可以加速 PyTorch 模型的运行。通过 Stable Diffusion 的 WebUI,可以在锐炬集成显卡和 Arc 独立显卡上运行 Stable Diffusion Automatic1111。

通过实际测试,可以看到在华硕破晓 Air 轻薄本上,Stable Diffusion 在集成显卡上的表现效果。96EU 版本的英特尔锐炬 Xe 显卡强大的算力,可以支持 Stable Diffusion 软件上运行 FP16 精度的模型,快速生成高质量图片。小编让它生成一张“正在打电话的男人”,在华硕破晓 Air 上,只用了 25.1 秒就“顺利出片”了。

图片 6

而在生成过程中,IT之家也通过性能资源管理器看到,GPU 的占用到了 100%,同时 CPU 也有 15% 的占用,可见这张图片确实是在本地利用 GPU 进行渲染的。

图片 8

如果放在过去,我们很难想象轻薄本可以拥有这样的性能,但随着 13 代酷睿处理器在性能、功耗比方面的进步,以及锐炬 Xe Graphics (96EU) 在 FP16、FP32 浮点性能的大幅提升,同时加入了 INT8 整数计算能力,这些都大大增强了 GPU 整体的 AI 图形计算能力。这也就是华硕破晓 Air 这样的轻薄本也能在本地侧很好地运行 Stable Diffusion 的重要因素。

值得一提的是,在英特尔下一代酷睿处理器 Meteor Lake 中,GPU 核显性能还会得到进一步提升,将拥有 8 个 Xe GPU 核心 128 个渲染引擎,更增加了 8 个硬件的光追单元,还会引入 Arc 显卡的异步拷贝,乱序采样等功能,也对 DX12U 做了优化。

图片 9

不仅如此,英特尔还在 Meteor Lake 中加入了集成式 NPU 单元,实现更高效能的 AI 计算,它包含了 2 个神经计算引擎,能够更好地支持包括生成式 AI、计算机视觉、图像增强和协作 AI 方面的内容。

同时除了 NPU,CPU 和 GPU 也都可以进行 AI 运算,不同场景下会用不同的 AI 单元去应对,彼此协调,如此一来,其整体能耗比相比前代最多可以提升 8 倍之多。因此,未来搭载 Meteor Lake 处理器的轻薄本在本地 AIGC 创作方面的表现会更加令人期待。

图片 3

通过上面的介绍和测试,相信大家对于在笔记本上运行 AIGC 这件事有了新的认识,同时,也会对 PC 笔记本的生产力有新的认知。在 AIGC 赋能之下,未来的 PC 的性质甚至也将发生进化,将不仅局限在生产“工具”的属性,更具备像人类意识一样的智慧力和创作力。从这一点来看,英特尔在 AI PC 这条路上所做的努力,无疑更加具有意义。

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

相关文章

软媒旗下网站: IT之家 最会买 - 返利返现优惠券 iPhone之家 Win7之家 Win10之家 Win11之家

软媒旗下软件: 软媒手机APP应用 魔方 最会买 要知