随着 ChatGPT 等大型语言模型掀起新一轮 AI 变革浪潮,AI 芯片短缺问题日益严重。例如,ChatGPT 开发商 OpenAI 高度依赖微软提供的超级计算机,使用了大量的英伟达 GPU。近日有消息称,OpenAI 正在考虑自己制造或收购 AI 芯片,以解决其业务所需的高性能和低成本 GPU 的问题。
今天,咱们来聊聊,OpenAI 都想入局的 GPU,究竟是个啥?
GPU 是什么
“一千款手机,就有一千种游戏体验”,当我们用不同的手机玩游戏时,体验感是不同的,除了响应速度,游戏画面的精美度和立体度也是一个主要差异,造成这种差异的因素之一是手机 GPU 的性能不同。
GPU(Graphics Processing Unit,图形处理器),作为一个隐藏在手机和电脑中的超能英雄,不仅是一个专业的画家,能快速绘制出色彩缤纷的画面,还是一个数学家,能快速完成大量的计算任务。
专业地说,GPU 是一种专门用于处理图形的处理器,它能够以非常快的速度处理大量的图形渲染计算,而且可以同时处理多个图形任务,从而大大提高计算机的计算和处理速度。
GPU 最初是为图形处理而设计的,但由于其并行处理和高速计算能力,GPU 开始担任更多、更重要的角色。现在 GPU 被广泛应用于科学计算、机器学习、大数据分析等领域。
计算机中的 GPU 可以分为两种,集成 GPU 和独立 GPU。
集成 GPU,体积较小,一般内置在计算机主板中,甚至可以集成到 CPU 中。集成 GPU 可以使计算机更轻巧,常见于笔记本电脑中。
独立 GPU,体积较大,是一个独立的部件,在电脑主板上有专门的插口。其功能比集成 GPU 更强大,而且可以单独升级(更换显卡)。但是由于体积较大,会占用电脑更大的空间,且运行时消耗更多能源并产生更多热量。
有的笔记本电脑同时具有这两种 GPU,一般情况下使用集成 GPU 节省能源减少发热,当需要更强大的图形处理性能时,切换到独立 GPU 执行相关的任务。
GPU 和 CPU 有哪些区别
看到这里,你是不是想到计算机中另一个重要角色 CPU(Central Processing Unit,中央处理器),那么,GPU 和 CPU 有什么区别呢?
虽然二者都能执行计算任务,但能力各有千秋。如果说 CPU 是一个知识渊博的数学教授,什么题目都会解,那么 GPU 就是一万个小学生,人多力量大,在计算简单数学题时,速度极快。
事实上,在 GPU 出现之前,基本上所有的任务都是由 CPU 完成的。有了 GPU 之后,二者才进行了分工,下表列出了二者的区别。
通过以上对比,我们发现,GPU 和 CPU 各有所长。在手机和电脑中,二者相互配合,分工合作,共同为我们服务。
GPU 更适合 AI
通过前面的介绍,我们了解到 GPU 非常适合大规模并行计算。AI(Artificial Intelligence,人工智能)的训练刚好涉及大量的数据处理,特别是在深度学习领域,网络模型通常有数百万甚至数十亿的参数,需要通过大量的数据来进行训练,以获得准确的预测,因此 GPU 非常适合 AI 算法。
并行处理能力
GPU 具有大量的核心和高速内存,擅长并行计算。在 AI 领域,计算量非常庞大,而 GPU 刚好适合这种场景。好比需要计算大量的简单数学题时,一万名小学生肯定比一名教授更适合。
内存带宽更大
一些常见的 GPU 内存带宽约为 400 GB/s,而最好的 CPU 内存带宽大约为 50 GB/s,所以 GPU 可以更快地获取和访问内存中的数据。在 AI 领域,数据一般占用大块连续的内存空间,显然 GPU 更合适。
灵活性强
GPU 支持使用 CUDA、OpenCL 等编程框架和语言,使得开发人员能够轻松利用 GPU 的计算能力,高度自定义 GPU 的计算任务,为不同类型的 AI 算法提供支持。
CUDA
Compute Unified Device Architecture,统一计算设备架构,一种由 NVIDIA 推出的通用并行计算架构,该架构使 GPU 能够解决复杂的计算问题。
OpenCL
Open Computing Language,开放设计语言,是一种开放的标准,用于超级计算机、云服务器、个人计算机、移动设备和嵌入式平台中各种加速器的跨平台并行编程。
扩展性强
随着 AI 模型的复杂度增加和数据量的增长,我们可以通过增加更多的 GPU 来提高处理能力,就像是增加更多的小学生来进行计算,使得系统能够更好地应对不断增长的计算需求。
本文来自微信公众号:中兴文档 (ID:ztedoc)
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。