设置
  • 日夜间
    随系统
    浅色
    深色
  • 主题色

OpenAI 揭秘 GPT-4.5 训练:10 万块 GPU,几乎全员上阵,出现“灾难性问题”

智东西 2025/4/13 15:18:26 责编:远洋

4 月 13 日消息,近日,在 OpenAI 史上最贵模型 GPT-4.5 发布 1 个多月后,OpenAI 联合创始人兼 CEO 萨姆・阿尔特曼(Sam Altman)与 GPT-4.5 的 3 位核心技术人员进行了一场 45 分钟的高信息量对谈,首次披露了这款模型研发耗时严重超期计算集群频繁故障提升路径难以预测等诸多不为人知的细节。

GPT-4.5 项目启动于两年前,是 OpenAI 迄今为止最周密的计划,涉及数百人团队协作,阿尔特曼称 OpenAI 为了这一项目几乎是“全员上阵”。

研发过程中,OpenAI 团队遇到了不少“灾难性问题”。10 万卡集群暴露了基础设施的隐藏的小概率、深层次故障,为了权衡时效与性能,OpenAI 的系统团队不得不“边修边训”。其中,有一个隐藏的小 bug 让集群频繁报错,直到训练进度条走过约 40% 才被揪出。

不过,这也帮助 OpenAI 打造了更为强大的技术栈:如今可以仅用 5-10 人便复刻出 GPT-4 级别的大模型。GPT-4 至 GPT-4.5 的性能提升约为 10 倍,获得了“难以量化但全方位增强的智能”,这点让 OpenAI 员工们都感到意外。

OpenAI 团队已经意识到,要实现下一个 10 倍乃至百倍的性能提升,算力已不是瓶颈,关键在于数据效率,即开发出能够利用更多算力,从同样数量的数据中学到更多知识的方法。

同时,系统正从单集群转向多集群架构,未来的训练可能涉及 1000 万块 GPU 规模的协作学习,其容错能力需要进一步提升。

对谈中,OpenAI 员工们还分享了数据长尾效应与 Scaling Law 之间的关系、机器学习与系统团队深度协同设计(co-design)模式的优势、无监督学习的本质与“绝不放过任何异常”的问题排查文化,全方位展现了 GPT-4.5 研发期间的 OpenAI 的思考与收获。

除了阿尔特曼之外,参与本次对谈的 3 位 OpenAI 员工分别为 Alex Paino(负责 GPT-4.5 的预训练机器学习算法)、Amin Tootoonchian(OpenAI 首席系统架构师)与 Daniel Selsam(研究数据效率与算法)。

以下是阿尔特曼与 OpenAI GPT-4.5 团队对谈视频的完整编译(为提高可读性,智东西在不违背原意的前提下进行了一定的增删修改):

01.GPT-4.5 两年前已启动,项目耗时远超预期

Sam Altman:打造一个如此庞大的模型(GPT-4.5),究竟需要什么呢?

Alex Paino:大约两年前,我们开启了这一项目。当时,OpenAI 即将上线一个新的大型计算集群,我们团队看到了这个机会,做了一系列工作来确定模型需要包含的功能,进行了大量降低风险的运行测试。

我们为此制定了一个很长的计划,涉及从系统到机器学习的整个技术栈。为了降低风险和为训练做准备是一个漫长的执行过程,而训练本身也是一个非常大的工程。

Amin Tootoonchian:我认为这个过程从一开始,就需要机器学习团队和系统团队密切合作,直到我们明确了想要训练什么模型,然后开始训练。

我们已经在机器学习和系统方面都做了预测,试图尽量缩小预期和现实之间的差距。但由于我们的工作节奏很快,还要利用最新的计算资源,模型训练就成了难以提前完美规划的事情

我们几乎总是带着许多未解决的问题开启训练,并试图在运行过程中克服挑战,取得进展。主要解法就是增加更多的计算资源。

最后阶段是执行,这需要很多人长期投入大量精力和动力,才能完成训练过程。

Sam Altman:你觉得我们的预期和现实的差距到底有多少?

Amin Tootoonchian:系统方面,在开始的时候,我们通常离预期的状态很远。我们总是面临一个选择:到底是推迟启动,等待问题解决,还是提早启动并在过程中解决问题。这总是需要权衡,要避免不合理地延迟进程。

但几乎总是会遇到一些意想不到的问题,我们要做的就是尽可能地处理好这些节点,处理好未知因素,并为模型训练制定计划。

Alex Paino:在这个项目中,我们的目标是做出 GPT-4.5,这意味着其能力要比 GPT-4 聪明 10 倍。这是我们大约 2 年前设定的初始目标。

这个过程中发生了很多事情,我们在思考到底能做得更好,还是会不如预期?这是一条非常复杂的过程,但最终,就我们投入的有效计算而言,我们得到了一个我们认为达到了比 GPT-4 聪明 10 倍的模型。

Amin Tootoonchian:在执行方面,GPT-4.5 项目的耗时与我们一开始预计的相去甚远。

02.如今训练 GPT-4 级别模型,仅需 5-10 人即可完成

Sam Altman:集群在从 1 万卡拓展到 10 万卡的时候,为什么遇到了这么多问题?

Amin Tootoonchian:我认为,如果系统开发者足够敏锐,大部分问题是能在小规模阶段就观察出来的。

还有些问题并不是大规模训练阶段独有的,而是原本就经常出现,但规模提升后就会变成灾难性问题,特别是当团队并未提前预料到这些问题会恶化到如此程度。

Sam Altman:有哪些事情造成了灾难性的后果?

Amin Tootoonchian:我认为基础设施的问题是众所周知的,无论是故障率、故障类型还是故障总量都很高。10 万卡集群是一个大规模的样本池,因此我们也发现了算力供应商都没有观察到的问题。

网络是其中一环,单个加速器也会出问题。不过这也是这种系统的美妙之处 —— 几乎所有组件都需要按预期工作,才能产生预期结果。我们的工作就是要尽量减少这种问题。

Sam Altman:在集群规模的极限上开展工作的确很困难,但我也注意到,做那些不再是技术前沿的事情变得容易多了,训练 GPT-4.5 需要数百人,OpenAI 几乎全员上阵。

但今天如果让你们从 OpenAI 中挑选出一个最小的团队,用我们所知道的一切知识和所有的系统工作从头开始重新训练 GPT-4,需要多少人?

Alex Paino:我认为现在要做出 GPT-4 级别的模型,可能需要 5 到 10 人左右。在完成 GPT-4.5 的过程中,技术栈已经有了很大改进。

其实,在我们在训练 GPT-4.5 的过程中已经做了类似的事情 —— 我们训练了 GPT-4o,这是一个 GPT-4 级别的模型,使用了很多来自 GPT-4.5 研究项目的相同内容重新训练。进行那次训练所用的人要少得多。

03.数据效率是大模型突破关键,新一代硬件带来诸多挑战

Sam Altman:从你的角度来看呢,Dan?为什么训练大模型很难?

Daniel Selsam:我认为做任何新事物都很难。我认为即使只是发现别人做了某事,它也会变得容易得多,因为最难的部分是一开始就有做某事的信念。我觉得仅仅是知道某事是可行的,就是一个超强的作弊码,让事情变得容易许多。

Alex Paino:我们正在将 GPT 预训练运行扩展到之前的 10 倍,总是会发现一些有趣的新东西,这些东西你不一定能预料到。

Sam Altman:在预训练规模上实现下一个 10 倍或 100 倍的增长需要什么?

Daniel Selsam:数据效率。Transformer 架构(也就是 GPT)在利用数据方面非常高效,它能很好地吸收和压缩信息,并实现泛化。它最大的特点就是能用计算资源高效地吸收信息。

但是,它从数据中获得洞察力的深度是有限的。当计算能力快速增长,而数据增长相对缓慢时,数据就会成为这种标准模式的瓶颈。这就需要算法创新,开发出能够利用更多算力从同样数量的数据中学到更多知识的方法。

Sam Altman:你们认为除此之外我们还需要什么来保持扩展?

Amin Tootoonchian:我的答案是关于系统的。我认为 GPT-4.5 所需的巨大工作量,本质上是模型规格带来的必然结果。我们无法用与 GPT-4 完全相同的技术架构来训练 GPT-4.5。

在状态管理方面,由于所需计算资源已超出单集群承载能力,我们不得不转向多集群训练架构。为了实现这一目标,我们必须在短时间内整合多个不同的工作流。

虽然这确实帮助我们取得了阶段性突破,但要实现下一个数量级的性能提升,仍需解决若干已知但被暂时搁置的技术难题 —— 这些问题是无法回避的。正是这类技术权衡不断延长着完美系统的研发周期,我们始终在追求最优实施方案的过程中做出策略性取舍。

需要明确的是,系统本身并非终极目标,其实际产出价值才是核心考量。就下一个 10 倍性能提升而言,我认为容错能力的突破至关重要。我们需要构建与工作负载深度协同的容错机制,以显著降低运维焦虑。当前超大规模系统的运维复杂度,与既往系统存在本质差异。

Sam Altman:你知道在 GPT-4.5 训练中,由于某些组件导致失败的比例是多少吗?

Amin Tootoonchian:我没有具体数字可供分享,但一般而言,在新一代硬件部署初期,系统运行往往面临诸多未被充分认知的技术挑战。我们选择在问题尚未完全明确的情况下推进项目,这导致初期运行失败率居高不下。

但经验表明,随着根本原因的识别和解决,故障率会显著降低。这一现象本质上反映了我们对基础设施认知的深化过程 —— 有些人称之为基础设施的清理或理解基础设施的基本问题。

执行的早期阶段几乎总是相当痛苦,我们在推进项目的同时,也在持续发现和解决新型故障模式,但最终失败率会逐渐下降,正常运行的时间变多。

这本质上是个优先级权衡的问题:在基础设施生命周期的早期阶段,其故障风险往往难以准确预估;而如果过度追求终极理想状态(原文为“City Estate”,理想城邦式设计),反而可能导致系统在初期阶段的可用性表现极差。

04.计算资源不再是主要瓶颈,算法尚未触及理论上限

Sam Altman:虽然推理模型是我们未来技术栈的关键组成部分,但让我们暂时聚焦于传统预训练模型的发展边界。假设我们拥有无限的 GPU 算力、无限的网络带宽和无限的电力供应,但仍受限于当前存在的技术瓶颈 —— 包括系统可靠性问题、容错训练方法的缺失,以及现有数据集的限制。

按照我们每个主要 GPT 版本号实现 100 倍规模提升的演进规律,基于当前的技术边界,预训练模型的发展究竟能达到什么水平?具体到 GPT 系列模型,以我们现有的知识体系,理论上究竟能够训练出什么样的模型?能做出 GPT-5.5 吗?

Alex Paino:从机器学习和算法发展的角度来看,我们尚未触及明确的理论上限。事实上,我们才刚刚开始探索数据效率更高的算法,以及如何更充分地利用现有数据资源。这个现状非常有趣 —— 即便是像 GPT-4 这样的模型,很大程度上仍是在计算资源受限的条件下开发的,这也决定了此前大多数研究的方向。

但现在的局面已经完全不同。自 GPT-4.5 以来,在某些关键维度上,数据而非计算正成为主要的制约因素。这种转变让相关研究变得不那么令人兴奋。

Sam Altman:不过这确实是一个惊人的进展,而世界可能还没完全意识到:在我们能够构建的最佳模型上,计算资源已不再是主要瓶颈。这个转变意味深长,毕竟我们已经在计算受限的环境中生活了太久太久。

05.模型整体性能提升可预测,智能提升路径难以预测

Sam Altman:在训练 GPT-4.5 过程中,我们学到的最有意思的机器学习经验是什么?说说你们想分享的就行。

Amin Tootoonchian:总的来说,最引人深思的是那些偏离我们预测的情况 —— 特别是当我们试图理解为什么实际表现会偏离预期曲线时。

Alex Paino:最让我们惊讶的发现之一是:不同机器学习组件的扩展性表现差异巨大。有些部分能很好地扩展,有些则不行。这是我们在实际训练过程中才真正认识到的。这段经历给了我们很多启发。

Daniel Selsam:我认为 GPT 范式的两大核心特征在于:其一,测试损失(衡量模型在未见过的测试数据上表现好坏的指标)可被准确预测;其二,模型性能随规模扩大呈现可预测的提升。更神奇的是,测试损失的降低会以种种难以量化却又令人惊叹的神秘方式,转化为全方位增强的智能水平。

Sam Altman:你是否对此持绝对乐观态度?完全认同这一观点吗?

Daniel Selsam:其实我想说的是,从 GPT-4.5 测试中我们发现了特别有趣的现象 —— 重新测试后,模型展现出的诸多精妙能力完全超出了所有人的预期。

我们确信它会以各种难以预先定义的方式变得更智能,而实际部署后,从用户满意度中就能观察到这些微妙层面的提升:更强的常识储备、更精准的语境理解能力、更细腻的语义把握 —— 这正是那些额外测试损失带来的魔力。在我看来,Scaling Law 在这一维度上得到了完美验证。

06.机器学习与系统团队合作密切,不会“自扫门前雪”

Sam Altman:整个训练过程中最积极的时刻是什么?最喜欢的记忆是什么?显然有很多痛苦,但希望那些痛苦已经有所缓解了。

Alex Paino:我确实有一个这样的时刻。我们在训练期间做了很多机器学习方面的工作,我认为我们在运行过程中做出的一些改变产生了相当好的影响,可能比预期的还要好,这对我们来说是一个非常令人兴奋的时刻。

Amin Tootoonchian:对我来说,在训练的同时,我们也同时在构建基础设施。我们坚信能越过这个性能悬崖,且我们有计划,每个人都在执行,但这需要很长时间。这是艰苦的工作,绝对比我想象的要难。我的预测是错的,我低估了解决这些问题需要的时间。

当团队终于攻克了那些关键问题,性能得到显著提升的那一刻,至今让我记忆犹新。你能明显感受到整个团队的能量转变 —— 所有人突然充满了干劲,带着全新的动力向最终目标冲刺。

最神奇的是,我们状态跟踪器上显示的预计完成时间从最初的两年开始不断缩短,最终锁定在一个明确的时间节点上。这种可见的进展对团队士气的提振是难以估量的。我认为这就是它的美妙之处。

我想特别强调的是,机器学习的工作从未停滞。即使在训练启动后,这种机器学习协同设计的过程仍在持续。机器学习团队不仅主动跟进那些曾被标记为“后续处理”的问题,还持续交付了真正优化训练时间的改进。

这完美体现了我们的团队精神 —— 这里不存在“各人自扫门前雪”的工作界限,而是一种真正无缝的协作,这种凝聚力正是我们最强大的优势。

07.GPT-4.5 预训练是最周密的计划,绝不放过任何异常

Daniel Selsam:外界对于这次训练本身的挑战性和预测准确性已经讨论很多。但事实上,这一切都建立在极其周密的规划基础上 —— 你要不再详细谈谈这方面?

Alex Paino:这绝对是我们迄今为止最周密的计划。正如我所说,早在正式启动训练前一年,我们就已经开始筹备这个项目。期间我们进行了多次大规模的风险控制测试运行。

我们特别注重循序渐进地引入所有改进:从高置信度的基础配置开始 —— 可以理解为类似 GPT-4 的成熟架构,这个配置在机器学习层面我们已经完全掌握 —— 然后像叠积木般层层叠加新特性。

关键是要严格验证每个改进在不同规模下的扩展性:不仅要看到性能提升,更要确保这些提升能随着模型规模扩大而持续有效。很多改进在小规模测试时表现良好,但在大规模应用中就会失效。

因此整个过程中我们都保持着高度警惕,不断迭代完善我们的扩展定律方法论。通过这次风险控制实践,我们积累了大量宝贵经验,这些经验将继续指导未来 GPT 系列模型的开发。

Amin Tootoonchian:我记得有个特别有趣的瞬间让我很是怀念。要知道我们每次启动训练任务几乎都免不了遇到各种 bug,这已经是家常便饭了。但关键是要确保进展不受阻,得时刻确认当前进度是否确实在正轨上,这些 bug 会不会对训练健康度造成致命影响。

虽然我们最初非常确信存在重大缺陷,但通过搭建的整套监控体系,我们已经能够精准区分问题根源:是硬件故障?哪类硬件故障?是数据损坏?还是机器学习模型本身的 bug?或者是代码中的竞态条件?

当时的情况是,我们同时开着多个问题讨论区,各种症状五花八门。经过一系列 bug 修复后,我们陷入了僵局:眼前堆叠着多个未解问题,所有人都在苦思冥想 —— 这些是不同 bug 导致的?还是某一个 bug 在作祟?

后来我们搞了个投票,让团队成员票选最可能的根源。结果最不被看好的选项反而命中真相:竟然是 PyTorch 上游的 torch.sum 函数出了问题,一个简单的求和运算。

这个 bug 特别有意思。要知道我们主要使用 Triton 内核,只有在某些无关紧要的边缘场景才会回退到 torch 运算。而我们的特定代码路径触发的这个 torch.sum 函数 bug,会因数据分布特性极偶然地引发非法内存访问 —— 它在计算内存偏移量时出了差错。

最戏剧性的是,当某位工程师终于定位到问题并提交修复后,所有症状各异的报错竟然全部消失了。大家兴奋地把 Slack 频道从“多 bug 理论”集体改名为“单 bug 理论”,场面特别欢乐。

这个 bug 潜伏了多久呢?从训练早期就存在,直到进度条走过约 40% 才被揪出来。发现过程也充满戏剧性:当时有个复杂内核连续调用序列,第二个调用触发了非法内存访问。

虽然这种崩溃频率极低(每几百甚至上千步训练才出现一次),很容易被当作偶发故障忽略,但我们的团队准则就是:绝不放过任何异常。这个故事最精彩的部分就在于这种不轻言放弃的坚持。

08.我们离理想系统还很远

Sam Altman:GPT-4.5 预训练启动后,大家还要做哪些工作?

Alex Paino:我们所有人都需要经常观察损失曲线。除此之外,还要持续优化系统,改进在训练启动前未能完成的协同设计(co-design)。我们密切监控训练过程中的各类统计指标,确保没有出现预期外的异常趋势。同时从机器学习角度探索可能的改进方案。虽然预训练启动后数据层面的工作会暂时减少,但仍有大量任务需要处理。

Amin Tootoonchian:我认为机器学习很大程度上依赖于正确性判断。预训练启动后,面对大量噪声信号,我们就像解读茶叶渣的占卜师,需要判断系统是否健康,这就是我们的职责所在。

Sam Altman:在系统层面,什么会限制我们进行模型训练?是芯片、处理器、内存、网络还是电源?

Amin Tootoonchian:系统的美妙之处在于,在进行协同设计时,工作负载可以适应你构建的基础设施。这里没有普遍的说法说网络是瓶颈,或者内存带宽是瓶颈之类的。即使是对于同一规格的模型,我们可以选择转移资源需求,我们可以选择创建一个更加平衡的系统,但拥有更多的内存带宽总是有益的。在没有限定条件的情况下很难回答这一问题。

在设计 GPT-4.5 时,我们可能系统方面要具备某种属性,这种属性要经过人的引导才能产生。所以协同设计对形成模型架构和架构元素很重要,某种程度上将系统和机器学习方面联系在一起。如果系统有一种我们不太希望拥有的属性。我理想的情况是,一切都应该是解耦的,以给彼此最大的空间。

有时候事情会联系在一起,我们需要满足基础设施的要求,或者说事情本应如此。很多时候,我们需要一个平衡的系统、平衡的通信。而我们拥有的最好的调节手段就是所有这些协同设计。

Sam Altman:我们距离这样理想的系统目标还有多远?

Amin Tootoonchian:离那个目标还很远。构建系统的过程总是这样的:先有一个关于事物应该如何运作的理想化观点,然后用现有资源去调和那些差异。

我认为我们并不是为了理论而理论,只是为了讨论我们希望它变成什么样子,让它实现,并尽可能地接近那个理想。这可能是系统领域中最令人兴奋的部分。以前人们会说这是一个优雅的系统设计,而最终历史会告诉我们这个选择是正确还是错误的。

Sam Altman:如果能在下次大型训练前获得一个机器学习问题的答案,你们最想知道什么?

Alex Paino:我想知道在有限数据和特定领域下,我们应该采用哪些算法。这虽然是个宽泛的问题,但确实是最关键的。

Sam Altman:今后会进行 1000 万块 GPU 或更大的同步预训练吗?

Alex Paino:我认为会有,但未必是传统预训练模式,它的形式可能与现有技术截然不同,但仍会保留无监督学习的内核。

Amin Tootoonchian:我倾向于半同步模式。受物理规律限制,完全同步不太现实。

Daniel Selsam:我认为这更可能是去中心化的。肯定会有 1000 万块 GPU 共同工作在一个学习和执行任务的 AI 系统上,但像大脑的各个部分一样,彼此并不一定会相互交流

09.算法改进产生叠加效应,推动数据效率提高

Sam Altman:当前最先进的算法和人类的数据效率相差多少?未来有望追赶上吗?

Daniel Selsam:两者很难直接比较。语言学习层面上的差距肯定是巨大的,关键在于如何定义人类视觉神经接收的信息量。我认为总体上算法的数据效率比人类低许多。

几十年来,深度学习一直关注算力效率。除了数据和算力的增长,真正让人惊喜的是算法改进产生的叠加效应。算法性能每次提高 10% 或 20%,叠加在数据效率上就会有显著效果。到目前为止,还没有围绕数据效率进行这样的动员,因为在数据不流通且计算能力受限时,这一做法并不值得。

现在,我们正在进入 AI 研究的新阶段,我们将开始积累数据效率的胜利。我认为,现在就预测我们会遇到无法逾越的障碍是有些愚蠢的。人类大脑的运行方式肯定与我们算法改进不同,在这方面我们要保持谨慎。但我认为要对算法未来发展保持乐观。

Sam Altman:更大规模的预训练与模型更强的学习推理能力之间有什么相关性吗?

Alex Paino:我们观察到的是,更好的预训练和无监督学习往往会提升模型的整体智能,并在泛化方面有很大帮助,这与推理能力是相辅相成的,而推理在提高智能方面可能会更迟钝一些。我认为它们是互补的关系。

Sam Altman:预训练似乎在很多事情上能够通用,而训练一个模型只能让它在某一类事情上做得很好,是这样吗?

Alex Paino:这点很有趣,不过当你看到训练它们的数据时,就不会对这种情况惊讶了。预训练的数据集范围非常大,我们追求的是广度和多样性。而当谈到模型强化学习并让它可以清晰地获得良好奖励信号和良好的训练环境时,我认为很难兼顾数据集的广度。

Daniel Selsam:我同意,但我认为还有一个因素,预训练本质上是在压缩数据,从而发现不同事物之间的联系。它关乎类比,更加抽象。推理是在特定问题上需要谨慎思考的一种技能,也能够获得许多类型问题的解决方法。但在预训练过程中,在跨越不同领域进行数据压缩时,可以学到更抽象层面的知识。

10.智能的本质是压缩,数据长尾效应让 Scaling Law 持续有效

Sam Altman:无监督学习为什么有效呢?

Daniel Selsam:关键是压缩。理想的智能形态是所罗门诺夫归纳(Solomonov induction),一般而言,机器学习会考虑所有的可能性,但倾向从更简单的程序开始检验。

当前预训练的本质正是一个压缩的过程,通过找到一个最简程序来解释人类迄今为止产生的所有数据,以此实现近似表达。

Sam Altman:下一个 Token 预测如何协助实现压缩?

Daniel Selsam:统计学里有一个悖论 —— 为什么深度网络看似无法压缩却能实现泛化?正常来讲,当拥有大量数据和一些小模型时,这些模型一定要经历压缩才学到了东西。

在预训练中,数据和模型的规模都很大,有些人就认为这种训练只是记忆和插值学习,其实他们忽视了压缩的另一种理解视角 —— 序贯压缩(pre-quential compression),它像一个压缩器,即使数据权重很大,二进制也无需存储这些信息,利用下一个 Token 预测的结果可以快速检索出有用信息,提高压缩效率。

Sam Altman:训练 GPT-4.5 的过程耗费了大量人力、时间和金钱,这其实可以看做是一次验证 Scaling Law 的实验,而结果证明它是有效的,并且还会持续很长时间。Scaling Law 为什么可以被称之为宇宙规律?

Daniel Selsam:压缩程度越高,智能就越强大,这具有很深刻的哲学内涵。为什么训练更大的模型时间越长,压缩率就越高?这涉及到很多理论,其中我喜欢的是稀疏表示(Sparse Representations)。

现实中的关键概念遵循幂律分布(power law),比如第 100 个重要概念可能在每 100 个文档里才出现一次,存在明显的长尾效应。这种分布特性导致需要大规模数据和算力来有效捕捉所有关键概念,也决定了 Scaling Law 长期有效存在。

本文来自微信公众号:智东西(ID:zhidxcom),作者:陈骏达陈家阳

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

相关文章

关键词:GPT 4.5OpenAI

软媒旗下网站: IT之家 最会买 - 返利返现优惠券 iPhone之家 Win7之家 Win10之家 Win11之家

软媒旗下软件: 软媒手机APP应用 魔方 最会买 要知