IT之家 6 月 8 日消息,OpenAI 首席执行官 Sam Altman(山姆・阿尔特曼)在访问阿拉伯联合酋长国期间警告说,AI 对人类构成了“生存风险”,并建议设立一个类似于国际原子能机构(IAEA)的国际机构来监督 AI。
Altman 说:“世界面临的挑战是我们将如何管理这些风险,并确保我们仍然可以享受这些巨大的好处,没有人想毁灭世界。”他表示,联合国核监督机构国际原子能机构(IAEA)正是世界如何团结起来监督核电的一个例子。
Altman 还表示:“让我们确保全球团结在一起 —— 我希望这个地方能在这方面发挥真正的作用。”他说:“我们把国际原子能机构当作一个榜样,全世界都在表示 AI 很危险,希望安装一些护栏,我认为我们可以两者兼顾。”
IT之家此前报道,今年 3 月份,包括埃隆・马斯克和史蒂夫・沃兹尼亚克在内的 1100 多人签署了一封公开信,呼吁“所有人工智能实验室立即暂停训练比 GPT-4 更强大的人工智能系统,至少 6 个月”。Altman 当时表示,这封信“忽略了我们需要暂停的技术细节”,但同时也承认 OpenAI 还没有开始训练 GPT-5,并且“暂时”不打算这样做。
Altman 周三再次反驳了一些对人工智能担忧的声音,称该公司已经通过外部审计、红队测试和安全测试等方式评估了潜在的危险,“当我们完成 GPT-4 时,我们花了超过 6 个月的时间才准备好发布它。”
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。