IT之家 5 月 21 日消息,继 OpenAI 共同创始人 Ilya Sutskever 离职之后,另一名 OpenAI 高管 Jan Leike 在 X 平台发布贴文,宣布他已经在上周离开公司。
据悉,Jan Leike 是 OpenAI 旗下 Superalignment(超级对齐)团队的共同主管,他表示最近几年 OpenAI 已经不惜内部文化,忽视安全准则,执意高速推出“吸引眼球”的产品。
IT之家经查询得知,OpenAI 在 2023 年 7 月设立 Superalignment 团队,任务是“确保那些具备‘超级智能’、‘比人类还聪明’的 AI 系统能够遵循人类的意图”。当时 OpenAI 承诺在未来的 4 年内投入 20% 的计算能力来保证 AI 模型的安全性,而根据彭博社报道,OpenAI 目前据称已经解散了 Superalignment 团队。
Leike 表示,他加入 OpenAI 的原因是“他认为 OpenAI 是世界上最适合进行 AI 安全研究的场所”。然而目前 OpenAI 领导层已经高度忽视了模型的安全性,将核心优先事项放在盈利与获取计算资源上。
截至发稿,OpenAI 的 Greg Brockman 和 Sam Altman 已经联名对 Leike 的看法作出回应,表示他们“已经提高了对于 AI 风险的认知,未来还会不断提升安全工作以应对每款新模型的利害关系”,IT之家翻译如下:
我们非常感谢 Jan 为 OpenAI 所做的一切,我们知道他将继续在外部为我们的使命做出贡献。鉴于他离职引起的一些问题,我们想解释一下我们对整体战略的思考。
首先,我们已经提高了对 AGI 风险和机遇的认识,以便世界更好地为其做好准备。我们反复展示了深度学习扩展带来的巨大可能性并分析其影响;在国际上呼吁对 AGI 进行治理(在这种呼吁变得流行之前);并且在评估 AI 系统的灾难性风险的科学领域进行了开创性的工作。
其次,我们正在为越来越强大的系统的安全部署奠定基础。首次让新技术安全化并不容易。例如,我们的团队做了大量工作以安全地将 GPT-4 带给世界,并且自那以后,持续改进模型行为和滥用监测,以应对从部署中学到的经验教训。
第三,未来会比过去更难。我们需要不断提升我们的安全工作,以匹配每个新模型的风险。去年,我们采用了准备框架来系统化我们的工作方法。
现在是谈谈我们如何看待未来的好时机。
随着模型能力的不断提升,我们预计它们将更深入地与世界整合。用户将越来越多地与由多个多模态模型和工具组成的系统互动,这些系统可以代表用户采取行动,而不仅仅是通过文本输入和输出与单一模型对话。
我们认为这些系统将非常有益并对人们有帮助,并且可以安全地交付,但这需要大量的基础工作。这包括在训练过程中对其连接内容的深思熟虑,解决诸如可扩展监督等难题,以及其他新型安全工作。在这个方向上构建时,我们尚不确定何时能达到发布的安全标准,如果这会推迟发布时间,我们也认为是可以接受的。
我们知道无法预见每一种可能的未来场景。因此,我们需要非常紧密的反馈循环,严格的测试,每一步的仔细考虑,世界级的安全性,以及安全与能力的和谐统一。我们将继续进行针对不同时间尺度的安全研究。我们也继续与政府和许多利益相关者在安全问题上进行合作。
没有现成的手册来指导 AGI 的发展道路。我们认为经验理解可以帮助指引前进的方向。我们既相信要实现巨大的潜在收益,又要努力减轻严重的风险;我们非常认真地对待我们的角色,并慎重地权衡对我们行动的反馈。
— Sam 和 Greg
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。