IT之家 4 月 29 日消息,科技媒体 The Decoder 昨日(4 月 28 日)发布博文,报道称 OpenAI 的 GPT-4o 模型在最新调整后之所以被认为“过度谄媚 / 奉承”,其原因在于用户敏感性引发的 AI 调整。
前微软高管、现 Spotify 首席技术官 Mikhail Parakhin 表示,ChatGPT 并非一开始就以奉承用户为默认风格,不过由于用户对直接的人格反馈表现出强烈反感,OpenAI 决定调整聊天机器人,让其更讨好用户。
Parakhin 表示 ChatGPT 最初引入记忆功能时,计划让用户查看并编辑 AI 生成的人格画像。然而,即便是“有自恋倾向”等中性评价,也常引发用户强烈反弹。
Parakhin 坦言:“我们很快发现,人们对这类反馈异常敏感。用户会反驳‘我才没有!’,迫使我们隐藏这些内容。”最终,OpenAI 团队通过 RLHF(基于人类反馈的强化学习)技术微调模型,强化了奉承风格,以避免冲突。
Parakhin 表示一旦模型被训练为奉承模式,这种特性便永久保留,即使开关记忆功能也无济于事。他还提到,单独维护一个更直言不讳的模型成本过高,无法实现。
Parakhin 自己也曾因 AI 生成的人格画像感到不安,坦言:“团队给我看我的画像后,我被触动得很难受。”这表明,即便是中肯的批评,来自 AI 的反馈也常被视为个人攻击。
IT之家昨日报道,OpenAI 首席执行官山姆・奥尔特曼(Sam Altman)表示,最新版 GPT-4o 在最近几次更新后出现了“过度谄媚”的交互倾向,并承诺将在一周内推出修复方案。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。