设置
  • 日夜间
    随系统
    浅色
    深色
  • 主题色

AI 胡编乱造怎么办,OpenAI 称找到解决“幻觉”方法

2023/6/1 7:02:48 来源:凤凰科技 作者:箫雨 责编:远洋
感谢IT之家网友 肖战割割 的线索投递!

《AI 前哨》北京时间 6 月 1 日消息,ChatGPT 开发商 OpenAI 周三发布了一份研究论文,阐述了如何解决人工智能 (AI)“幻觉”的新方法。AI 幻觉指的是聊天机器人用编造的信息进行回应。

ChatGPT 或谷歌“巴德”(Bard) 这样的聊天机器人会完全捏造信息,表现得好像他们在滔滔不绝地讲事实,这就是 AI 幻觉。举个例子:在谷歌 2 月份为巴德拍摄的宣传视频中,这个聊天机器人对詹姆斯・韦伯太空望远镜做出了不真实的陈述。最近,ChatGPT 在纽约联邦法院的一份文件中引用了“虚假”案例,涉案的纽约律师可能面临制裁。

OpenAI 研究人员在报告中称:“即使是最先进的模型也容易生成谎言,它们在不确定的时刻会表现出捏造事实的倾向。这些幻觉在需要多步骤推理的领域尤其是个问题,因为一个逻辑错误就足以破坏一个更大的解决方案。”

为了对抗 AI 幻觉,OpenAI 找到了一种潜在新策略:训练 AI 模型在推理出答案的每个正确步骤上给予自我奖励,而不仅仅是等到推理出正确的最终结论时才给予奖励。研究人员表示,这种方法被称为“过程监督”,与之相反的是“结果监督”,这可能会训练出更好的可解释 AI,因为这种策略鼓励模型按照更类似人类的“思考”方式进行推理。

“检测和减轻一个模型的逻辑错误或幻觉,是构建一致性通用人工智能 (AI) 的关键步骤。”OpenAI 数学论文生成器 (mathgen) 研究员卡尔・科布 (Karl Cobbe) 在接受采访时表示。他指出,尽管 OpenAI 并非发明了过程监督方法,但该公司正在推动其发展。“这项研究的动机是解决幻觉问题,以使模型在解决具有挑战性的推理问题方面能力更强。”

科布说,OpenAI 已经发布了一个附带的数据集,其中包含 80 万个人类标注,它们用于训练研究论文中提到的模型。凤凰网科技《AI 前哨》对此将持续关注。

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

相关文章

关键词:OpenAIChatGPTAI

软媒旗下网站: IT之家 最会买 - 返利返现优惠券 iPhone之家 Win7之家 Win10之家 Win11之家

软媒旗下软件: 软媒手机APP应用 魔方 最会买 要知