除了 o1 / o3,OpenAI 另一个尚未公开的内部推理模型曝光了。爆料者正是 CEO 阿尔特曼本人。
据他透露,与全球顶尖程序员相比,当前这一内部模型的编程能力已达 Top50,甚至今年年底将排名第一。
而且针对大家近来尤为关注的算力问题,他更是直言:
在内部,我们已经达到了 GPT 4.5,而达到 GPT 5.5 并不需要 100 倍以上的计算能力。
除此之外,也是在东京大学的这场对话活动中,阿尔特曼由 AI 对教育的影响引出了更多话题,包括 AI 时代需要何种人才,以及一系列对内部模型进展的爆料。
这场对话由东京大学的校长(Teruo Fujii)和执行副校长(Kaori Hayashi,女)主持,OpenAI 首席产品官 Kevin Weil 陪同阿尔特曼参加。
期间,他们畅谈了 AI 的应用和未来,并和学生进行了面对面问答。
以下为重点内容整理 & 摘录。
内部模型已达 GPT 4.5,升级成 5.5 不再需要 100 倍算力升级
主持人简短开场后,活动由学生提问开启。
谈及 AI 对教育的影响以及未来这一领域的发展,阿尔特曼直言教育是 OpenAI 最关注的几个领域之一。
目前已经能看到 ChatGPT 如何为学生提供各种辅助,未来类似 AI 工具只是改变了环境和部分人类习惯,对于人类来说可能是一种解放,不用过于担心 AI 会改变一切。
另外,由于科学发现可能呈现 10~100 倍增速,由 AI 推动的生产力进步可能极大促进社会发展。
接下来副校长也提了一个问题,AI 时代需要怎样的人才和技能?
对此阿尔特曼回应称,显然人类现在已经很难在数学、编程等具体任务中优于 AI,因此围绕弄清楚人们需要什么,去培养个人的开创性视野、快速适应能力等也就更加重要。
Kevin 总结了一个更简单的办法,从现在开始将 AI 用起来,将之融入工作生活。一旦遇到新问题,尝试用 AI 解决,以此逐渐跟上 AI 发展的步伐。
随后,有学生提到了算力进化问题,如果拥有 100 倍计算能力,可以期望 GPT 具有哪些新特性?
阿尔特曼称,GPT 系列代表了曾经的一个范式,专注预训练部分,GPT 1、2、3、4 的每一次升级都大致意味着 100 倍算力升级,随之也产生了更强的能力。
目前内部模型已经达到 GPT 4.5 水平,照旧范式推测,达到 GPT 5.5 也需要 100 倍算力升级。然而,随着 o1 系列推理模型取得新突破,一种令人难以置信的新计算效率诞生了。
这也意味着类似升级不再需要 100 倍算力,通过强化学习等技术我们也能得到更强的模型能力。
之后阿尔特曼梳理了 OpenAI 在推理模型上取得的一系列进展,按网友总结下来就是:
编程能力上,o1 排名为 9800;仅过去几个月,o3 将排名拉到第 175 位;如今一个内部模型在基准测试中排名约为 TOP50,而且年底就能直接登顶。
“我们希望朝着开源前进”
接下来,阿尔特曼谈到了更多未来计划。
o3 的发布已经为未来 6~12 个月的研究点明了方向,OpenAI 将尽可能推动小型、功能强大且速度极快的推理模型,同时也会继续推进 GPT 6/7 等。
过程中,他着重 cue 到了 OpenAI 最近向 Pro 用户推出的“深度研究”(Deep Research)功能,这是一个使用推理来综合大量在线信息并为用户完成多步骤研究任务的智能体,能帮助用户进行深入、复杂的信息查询与分析。
在他看来,OpenAI 一大重点也是发布更多此类智能体,而且梦想之一是搞一个编程智能体。
总之,今年的主线任务是,到年底能够有一个模型,即便用户问出非常难的问题,它也能在运行并思考几小时后准确作答。
然后看点来了,基于中国 DeepSeek 选择开源后广受好评这一事实,有学生当面提问:
是否有计划重新考虑开源?
阿尔特曼这次倒是很干脆,直接承认“我们将这样做”,“我们希望朝着开源前进”。
但是(没错有一个但是),目前不知道开源什么,也不知道应该选择什么时候开源。
在这之后,阿尔特曼又回答了对脑机接口、太空工程和 AI 机器人等前沿科技的看法。
虽然众所周知他和马斯克不对付,但他这次竟然直言:
(像 Neuralink 这样的)脑机接口公司是自己过去 6 个月见过的最有趣的
本文来自微信公众号:量子位(ID:QbitAI),作者:一水,原标题《OpenAI 内部模型曝光!编程能力跻身全球 Top50 程序员,年底不再有人类对手》
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。