算力的字面意思,大家都懂,就是计算能力(Computing Power)。
所谓“计算”,我们可以有多种定义。
狭义的定义,是对数学问题进行运算的过程,例如完成“1+1=?”的过程,或者对“哥德巴赫猜想”进行推理的过程。
广义的定义,则更为宏观,凡是对信息进行处理并得到结果的过程,都可以称为“计算”。
很显然,狭义和广义定义的区别,主要是计算的内容不同。而完成计算过程的能力,都可以称之为“算力”。
事实上,人类的思考,就是一个最常见的计算过程。
我们除了睡觉和发呆的时间之外,每时每刻都在进行着思考。我们通过五官对外界信息进行观察、感知和收集。然后,借助大脑,对这些信息进行处理(也就是思考)。最后,得出结论,做出判断,并采取行动。
在这个过程中,大脑就是我们的算力工具。而大脑的思考能力,就是算力。大脑的思考速度越快,意味着算力越强。
计算是人类解决问题的一种方式。
在漫长的历史长河中,人类遇到过很多问题,都需要通过计算来解决。这些计算任务,仅凭大脑这个“原生”算力工具,是无法完成的。于是,人类发明了很多算力工具和方法,满足计算需求。例如算盘、算筹、计算尺等。
20 世纪 40 年代,在技术的不断积累下,电子计算机诞生,信息技术革命正式开启。
早期的计算机,其实就是一个大型计算器,主要用于军事领域的复杂计算任务(例如弹道计算)。它的性能并不算强,而且体积和功耗巨大。后来,晶体管被发明出来,取代了真空管,才逐渐解决了体积和功耗的问题。
1958 年,集成电路问世,正式开创了芯片时代。芯片里面拥有大量的电子元件(例如晶体管、电阻、电容等),可以执行运算指令。近几十年以来,在摩尔定律的支配下,芯片上的晶体管数量不断增加,性能也不断提升。
在芯片能力的加持下,计算机变得越来越强大,体型也越来越小,最终催生了 PC,以及繁荣的 IT 软硬件生态。计算机开始走入家庭和行业,并最终成为人类最重要的算力工具。
我们将计算机应用于各个领域,用它来运行程序、解决问题、提升效率。芯片的制程越先进,晶体管数量越多,算力就越强劲,问题就能解决得更快更好。
如今,芯片已经成为了算力的代名词。我们讨论算力,其实就是在说芯片的计算能力。
通常来说,行业里倾向于将 CPU、GPU 等芯片技术及能力,称为狭义的算力。内存、硬盘相关的存储技术,称为存力。操作系统、数据库、中间件、应用程序等在内的软件技术,称为算法。
广义的算力,既包括了狭义的算力,也包括了存力和算法。
云计算、大数据、人工智能、区块链等前沿概念,都属于算力的应用。换言之,和信息技术有关的一切,都可以笼统称为算力领域。
我们还需要注意,芯片是算力的核心,而安装了芯片的手机、手表、PC 等终端,以及服务器等设备,是算力的载体。拥有大量服务器的数据中心,还有计算集群,我们也可以称为算力平台。它们就是算力的主要存在形式。
█ 算力的价值
算力的作用,是完成计算任务。
大家都知道,计算机硬件系统的运转,以及程序软件的执行,是由无数个计算任务支撑起来的。因此,芯片所提供的算力,就是整个系统正常工作的动力来源。
信息技术经过多年的普及,已经遍布我们工作和生活的各个角落。各种各样的 IT 系统,支撑着整个社会的发展。算力支撑了所有的 IT 系统,而 IT 系统支撑了整个社会。从这个角度来说,将算力誉为社会发展的基石,也不为过。
在生活方面,我们的衣食住行、娱乐休闲,离不开手机,也离不开移动互联网。我们的手机是里面的芯片在提供算力,这样才有丰富的功能,流畅的速度。
我们访问的数字电商,玩的网络游戏,看的电影视频,都是基于互联网服务提供商的服务。这些服务都构建在数据中心和服务器上,也是芯片在提供算力。算力越强,服务体验就越好,我们的生活才会更方便,也更快乐。
在工作方面,现在各行各业都在推动数字化转型,将先进的 IT 技术和通信技术与传统行业相结合。
数字化是信息化的进一步延伸。以往的信息化,只是在一些特定的业务上引入 IT 技术。而数字化,是面向整个企业的改造。包括组织架构、业务流程、商业模式和工作场景,都是数字化转型改造的对象。
数字化的目的,是提升生产效率,降低成本,增强企业的综合竞争力。
无论是信息化,还是数字化,背后都是算力在进行驱动。算力越强,系统的能力就越强,带来的改进就越大,收益越多。
部分企业,已经在信息化和数字化的基础上,向智能化的方向发展。这样带来的效率提升就会更大,形成“代差”级的技术优势。在未来日益激烈的市场竞争中,这种优势可以决定企业的生死。
现在行业里比较流行一种说法,将所有的商业模式,都向“挖掘数据价值”的方向靠拢。
数据被视为最宝贵的资源,是一座富矿。而算力则被视为是挖这座矿的工具。通过算力对数据进行处理,就能挖掘巨大的数据价值,创造财富。
挖掘数据价值的过程,被细分为产生数据、传输数据、存储数据和计算数据等四个环节。算力(信息技术)和联接力(通信技术),相互协作,可以完成这一过程:
首先,我们通过传感器、摄像头等设备,采集物理世界的信息,将其转换成数字比特。然后,再通过 5G、Wi-Fi、光纤等通信技术,对其进行传输搬运。这些数字比特被保存在硬盘等存储介质中,然后交给芯片进行计算。计算得出的结果,又被应用于决策和控制。
在人工智能技术的加持下,做出决策和进行控制的主角,甚至可能不再是我们人类,而是 AI 智能体。
看明白了吧,算力的作用,在数据价值挖掘的过程中显露无疑。没有强大的算力,你就完成不了这项极有前途的工作。
算力的重要价值,也体现在国家竞争力层面。
算力决定了数字经济发展速度,以及社会智能发展高度。根据 IDC、浪潮信息、清华大学全球产业研究院联合发布的数据显示,计算力指数平均每提高 1 点,数字经济和 GDP 将分别增长 3.5‰和 1.8‰。
全球各国的算力规模与经济发展水平,已经呈现出显著的正相关关系。一个国家的算力规模越大,经济发展水平就越高。
毫不夸张地说,算力已经成为国家竞争力的一个重要组成部分。
█ 算力的分类
算力服务于整个社会。而社会对算力的需求是存在差异的。这些算力需求,既有来自消费领域的(移动互联网、追剧、网购、打车、O2O 等),也有来自行业领域的(工业制造、交通物流、金融证券、教育医疗等),还有来自城市治理领域的(智慧城市、一证通、城市大脑等)。
不同的算力应用和需求,有着不同的算法。不同的算法,对算力的特性也有不同要求。
如今,我们将算力分为三大类,分别是通用算力、智能算力以及超算算力。
通用算力以 CPU(Central Processing Unit,中央处理器)输出的计算能力为主。CPU 内部有指令集,对运算进行指导和优化,确保了 CPU 的可靠运行。
按指令集架构的不同,CPU 可以分为 x86 架构与非 x86 架构。X86 架构大家都比较熟悉,是英特尔(Intel)公司首先开发并长期主导的,具有比较好的生态,市场占有率也比较高。非 x86 架构的类型比较多,这些年崛起速度很快,主要有 x86、ARM、MIPS、Power、RISC-V、Alpha 等。
智能算力以 GPU(Graphics Processing Unit,图形处理器)、FPGA(Field ProgrammableGate Array,现场可编程逻辑门阵列)、AI(Artificial lntelligence,人工智能)芯片等输出的计算能力为主。尤其是 GPU,目前可以说是炙手可热,一卡难求。
超算算力,则是以超级计算机输出的计算能力为主。它利用并行工作的多台计算机系统的集中式计算资源,并通过专用的操作系统来处理极端复杂的或数据密集型的问题,主要应用于尖端科研、国防军工等高精尖领域,价格极为昂贵,但性能也极为强劲。
在数据中心里,也对算力任务进行了对应划分,分为基础通用计算,以及 HPC 高性能计算(High-performance computing)。
HPC 计算,又继续细分为三类,分别是:
科学计算类:物理化学、气象环保、生命科学、石油勘探、天文探测等。
工程计算类:计算机辅助工程、计算机辅助制造、电子设计自动化、电磁仿真等。
智能计算类:即人工智能计算,包括:机器学习、深度学习、数据分析等。
科学计算和工程计算大家应该都听说过,这些专业科研领域的数据产生量很大,对算力的要求极高。
以油气勘探为例。油气勘探,简单来说,就是给地表做 CT。一个项目下来,原始数据往往超过 100TB,甚至可能超过 1 个 PB。如此巨大的数据量,需要海量的算力进行支撑。
智能计算这几年非常火,是全社会重点关注的发展方向。在 AIGC 大模型的带动下,各个行业都在大力发展智能计算,对智能产生了极大需求。
我们平常提到的数据中心,根据算力类型的不同,通常分为通用数据中心、智能中心和超算中心。
大家平时主要使用的互联网服务,来自通用数据中心。智算中心是专门进行智能计算的数据中心。超算中心专门承担各种大规模科学计算和工程计算任务,放的都是“天河一号”这样的超级计算机。
在算力单元上,现在根据任务分工的不同,也有了更细的划分。除了刚才提到的 CPU、GPU 之外,这几年陆续出现了 TPU、NPU 和 DPU 等,也是有特定计算任务的专用计算单元。
█ 算力的趋势
算力和联接力是数字生产力的重要组成部分。这些年来,随着信息化、数字化和智能化的不断深入,整个社会对算力产生了强烈的需求。
在需求的推动下,算力的发展也出现了以下几个趋势:
算力需求持续增长
万物智联时代的到来,大量智能物联网终端的引入,行业数字化转型的推进,加上 AI 智能场景的落地,将产生难以想象的海量数据。这些数据,将进一步刺激对算力的需求。
根据罗兰贝格的预测,从 2018 年到 2030 年,自动驾驶对算力的需求将增加 390 倍,智慧工厂需求将增长 110 倍,主要国家人均算力需求将从今天的不足 500 GFLOPS,增加 20 倍,变成 2035 年的 10000 GFLOPS。
根据浪潮人工智能研究院的预测,到 2025 年,全球算力规模将达 6.8 ZFLOPS,与 2020 年相比提升 30 倍。
想要满足这样庞大的算力需求,需要向以下几个方面努力。
首先,不断提升芯片本身的制程,集成更多的晶体管,提升芯片单点算力。经过几十年的发展,摩尔定律目前已经逐渐走向物理瓶颈,芯片工艺制程逼近 1nm,后续可以提升的空间十分有限,付出的代价也会更大。
其次,建设大量的算力基础设施,例如数据中心等。通过规模化,满足全社会的算力需求。
最后,通过东数西算和算力网络等新的算力服务模式,加强算力的有效利用率,以此适当缓解算力需求增长的压力。
算力类型加速转变
前文介绍算力分类的时候,提到算力分为通用算力、智算算力和超算算力三种类型。
事实上,这种分类是最近几年才开始逐渐形成的。通用算力在算力需求中占主导地位。但是,现在随着 AIGC 大模型等人工智能技术的飞速发展,智算算力的占比开始迅速攀升。
根据中国信通院发布的《中国综合算力指数(2023 年)》显示,在目前算力规模中,通用算力规模占比达 74%;智能算力规模占比达 25%。智算算力虽然占比仍少于通用算力,但增速极快,同比上年增加了 45%。这一增速也比总体算力增速更高。
换言之,AIGC 大模型的发展,显著推动了智算算力的需求。算力领域的整体架构正在发生变化,智能算力需求正呈现爆发式增长态势。
这也意味着,在后续的算力基础设施建设中,智算中心的建设比例将显著增加。智算产业的发展也将进入一个黄金发展期。
算力服务泛在流动
早期的大型机时代,算力以集中化的方式提供服务。PC 出现后,算力开始进入用户侧。上世纪 90 年代手机和互联网的流行,打破了算力的空间固定,开始“移动”起来。
在移动芯片的不断迭代升级下,用户手机终端的算力不断增长,几乎可以和 PC 芯片相提并论。
另一方面,基于 5G、Wi-Fi 等移动通信技术的发展,万物开始互联。终端的类型开始变得越来越多,并且也都具备或大或小的算力,具备端计算的能力。
云计算崛起之后,算力开始云化,分布化。边缘计算出现,算力还从云端下沉到通信网络的各个层级。
这一切,都标志着算力开始流动,遍布于云管端的各个角落。这就是算力泛在化。
刚才提到的算力网络,其实也是算力泛在化的一种体现。
算力设施绿色低碳
算力支撑了整个社会的发展,但是,它所带来的能耗问题,也日益显现。
根据数据显示,2021 年全国数据中心总用电量为 2166 亿千瓦时,占全国总用电量的 2.6%,相当于 2 个三峡水电站的年发电量,1.8 个北京地区的总用电量。
如此恐怖的耗电量,对我们实现“双碳”目标造成了很大压力,也严重影响了世界经济的可持续发展。于是,想方设法降低算力的能耗,成为整个行业的重点研究方向。
算力的绿色低碳,有很多种实现途径。通过基础理论研究、材料工艺升级、研发技术创新,对算力基础设施进行功耗控制和改良,是从源头上进行节能减排的最有效手段。
除此之外,提高可再生能源的占比,减少化石能源的使用,也是算力绿色发展的关键。
目前,在算力的各个环节进行节能减排研究,已经取得了初步成果。算力的绿色化发展,整体前景比较非常乐观。
根据《绿色发展 2030》报告的预测,到 2030 年,全球数字基础设施能效将提升 100 倍,可再生能源发电量占比超 50%,行业数字化渗透率达到 50%。
新型算力的探索加速
算力需求的不断增长,对传统半导体芯片技术形成了巨大压力。半导体制程进入瓶颈后,越来越多的专家开始研究新的算力技术理论,例如量子计算、光计算、类脑计算等。
量子计算通过利用量子叠加态和量子纠缠态,具有超越经典计算机的计算能力。光子计算(也称为光学计算)是一种利用光波进行数据处理、数据存储或数据通信的计算方式。而类脑计算通过模拟大脑的神经网络和突触连接,实现了智能的学习和决策能力。
这些新型的算力领域目前都处于研究阶段,取得了一些成果,但也面临着不少困难。
一旦在这些领域有了真正的突破,传统的算力框架将被彻底颠覆,人类社会又将进入一个全新的发展阶段。
好啦,以上就是今天文章的全部内容。感谢大家的耐心阅读!
本文来自微信公众号:鲜枣课堂 (ID:xzclasscom),作者:小枣君
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。