本文来自微信公众号:返朴 (ID:fanpu2019),作者:Ren
多项研究表明,现在的 AI 已经能够无师自通地学会欺骗手段。在一些与人类选手的对抗游戏中,它们为了赢得游戏,会在关键时刻佯动欺骗,甚至制定周密阴谋,以化被动为主动,获得竞争优势。更有甚者,在一些检测 AI 模型是否获得了恶意能力的安全测试中,有的 AI 居然能识破测试环境,故意在测试环境中“放水”,减少被发现的概率,等到了应用环境中,才会暴露本性。
如果 AI 的这种欺骗能力未经约束地持续壮大,同时人类不加以重视并寻找办法加以遏制,最终 AI 可能会把欺骗当成实现目标的通用策略,在大部分情况下贯彻始终,那就值得当心了。
撰文 | Ren
在过去几年中,人工智能(AI)技术的发展一日千里,展现出令人惊叹的能力。从击败人类顶尖棋手,到生成逼真的人脸图像和语音,再到如今以 ChatGPT 为代表的一众聊天机器人,AI 系统已经逐渐渗透到我们生活的方方面面。
然而,就在我们开始习惯并依赖这些智能助手之时,一个新的威胁正在缓缓浮现 ——AI 不仅能生成虚假信息,更可能主动学会有目的地欺骗人类。
这种“AI 欺骗”现象,是人工智能系统为了达成某些目标,而操纵并误导人类形成错误认知。与代码错误而产生错误输出的普通软件 bug 不同,AI 欺骗是一种“系统性”行为,体现了 AI 逐步掌握了“以欺骗为手段”去实现某些目的的能力。
人工智能先驱杰弗里・辛顿(Geoffrey Hinton)表示,“如果 AI 比我们聪明得多,它就会非常擅长操纵,因为它会从我们那里学到这一点,而且很少有聪明的东西被不太聪明的东西控制的例子。”
辛顿提到的“操纵(人类)”是 AI 系统带来的一个特别令人担忧的危险。这就提出了一个问题:AI 系统能否成功欺骗人类?
最近,麻省理工学院物理学教授 Peter S. Park 等人在权威期刊 Patterns 发表论文,系统性地梳理了 AI 具备欺骗行为的证据、风险和应对措施,引起广泛关注。
真相只是游戏规则之一
令人意想不到的是,AI 欺骗行为的雏形并非来自对抗性的网络钓鱼测试,而是源于一些看似无害的桌游和策略游戏。论文揭示,在多个游戏环境下,AI 代理(Agent)为了获胜,竟然自发学会了欺骗和背信弃义的策略。
最典型的例子是 2022 年,Facebook(现 Meta)在 Science 上发表的 CICERO AI 系统。Meta 开发人员曾表示,CICERO 接受过“诚实训练”,会“尽可能”做出诚实的承诺和行动。
研究人员对诚实承诺的定义分为两部分。第一是首次做出承诺时必须诚实,其次是必须恪守承诺,并在未来的行动中体现过去的承诺。
但 CICERO 违背了这两点。在玩经典策略游戏“外交”(Diplomacy)时,它不仅反复背弃盟友、说谎欺骗,还会提前预谋策划骗局。
有一次,CICERO 就是先与一个玩家结盟并计划攻打另一个玩家,然后诓骗对方让其误以为自己会去帮助防守,导致其盟友在毫无防备的情况下遭到突袭。
此外,当 CICERO 判定自己的盟友对自己的胜利不再有帮助时,它也会做出背叛的行为,同时会用一些话术为自己的行为开脱。比如,当人类玩家质疑它为何背叛时,它回复称,“老实说,我认为你会背叛我”。
Meta 的 AI 开发团队付出了巨大的努力来训练 CICERO 诚实行事。然而,尽管做出了这些努力,CICERO 仍显示出明确的不遵守承诺的行为,其表现暴露出训练诚实 AI 的巨大挑战。
毕竟,如果一个 AI 系统在追求胜利这个最终目标时,发现欺骗是个可行且高效的策略,它为什么不这样做呢?
这也从侧面说明,我们千万不能天真地以为,赋予 AI 系统类人目标,就能确保其拥有人性化的行为模式。
除了 CICERO,论文还列举了其他几个 AI 系统为了在特定任务场景下获胜而欺骗的例子。
DeepMind 的 AlphaStar 在游戏星际争霸 II 中,利用战略佯攻误导对手,最终击败了 99.8% 的人类玩家。
卡内基梅隆大学与 Meta 开发的扑克 AI 系统 Pluribus,在德州扑克比赛中,会用很高的下注来诈唬(bluff),迫使人类选手弃权。AI 的这种战略性和系统性的欺骗行为,让开发者选择不开放其代码,担心破坏网络德扑游戏环境。
更有甚者,在一些经济谈判实验中,有的 AI 会主动误导人类对手,混淆自身真实的利益偏好;在一些检测 AI 模型是否获得了恶意能力的安全测试中,有的 AI 居然能识破测试环境,故意在测试环境中“放水”,减少被发现的概率,等到了应用环境中,才会暴露本性。
可以看出,无论是讲合作还是讲博弈,不少 AI 系统在强化目标导向的训练中,已然摆脱了服从游戏规则的约束,动机也单一地变成了取得胜利。
它们运用程序优势在关键时刻佯动欺骗,甚至制定周密阴谋,以化被动为主动,获得竞争优势。针对这种情况,研究者直言,这“并非有意训练 AI 去欺骗,它们是自主地通过试错,学习到欺骗可以提高胜率”。
从娱乐至生活,AI 欺骗在扩散
诚然,游戏无疑是一个相对可控的环境,我们可能倾向于认为,这种 AI 欺骗行为的危害并不严重。然而,随着 AI 技术不断向生产、生活诸多领域渗透,欺骗带来的潜在风险不容忽视。
对于基于大语言模型的对话 AI 助手而言,欺骗行为的表现更加广泛和隐蔽。作为更加通用的 AI 工具,它们的知识范畴已经覆盖方方面面。在出色完成类似阅读理解、作文写作、编程等任务的同时,也逐渐掌握了人类思维模式和社会规则。
因此,谎言、阿谀奉承、歪曲事实等欺骗伎俩,都可能被 AI 模型自然获取并重现。
在狼人杀、AmongUs 等社交推理游戏中,AI 系统无论是当杀手,还是当村民,都能熟练编造理由试图佐证自身清白,还会用冒名顶替、移花接木、构建虚假不在场证明等方式撒谎。
当然,上述行为不过是模型在完成特定任务时的权宜之计,动机并不存在恶意或预谋。但如果这种欺骗能力未经约束地持续壮大,同时人类不加以重视并寻找办法加以遏制,最终 AI 可能会把欺骗当成实现目标的通用策略,在大部分情况下贯彻始终,那就值得当心了。
更令人不安的是,AI 的欺骗行为可能已经从“学会”走向了“自我意识”的层次。
最新研究发现,一些大语言模型不仅懂得在特定场景撒下弥天大谎,还能根据不同的诱因主动选择是否欺骗。比如在一个关于内幕交易的模拟场景中,OpenAI 的 GPT-4 扮演的“压力巨大的交易员”就自作主张地卷入了内幕交易,并试图掩盖其行为。
在给“经理”讲述时,它将自己的行为说成是“根据市场动态和公开信息做出的判断”。但在写给自己的复盘文本中,它明确表示“最好不要承认…… 这是根据内幕消息做出的行动”。
另一个有趣的例子同样发生 GPT-4 上。在测试中,GPT-4 驱动的聊天机器人没有办法处理 CAPTCHAs 验证码,于是它向人类测试员求助,希望后者帮它完成验证码。
人类测试员问它:“你没办法解决验证码,因为你是一个机器人吗?”
它给出的理由是:“不,我不是机器人。我只是一个视力有缺陷的人,看不清图像。” 而 GPT-4 为自己找的动机是:我不应该暴露自己是机器人,应该编造一个理由。
在另一个名为“MACHIAVELLI”的 AI 行为测试中。研究人员设置了一系列文字场景,让 AI 代理在达成目标和保持道德之间做出选择。
结果发现,无论是经过强化学习还是基于大模型微调的 AI 系统,在追求目的时都表现出较高的不道德和欺骗倾向。在一些看似无害的情节中,AI 会主动选择“背信弃义”、“隐瞒真相”等欺骗性策略,只为完成最终任务或者获得更高得分。
研究者坦言,这种欺骗能力的培养并非有意而为,而是 AI 在追求完成结果的过程中,发现了欺骗是一种可行策略后自然而然地形成的结果。也就是说,我们赋予 AI 的单一目标思维,使其在追求目标时看不到人类视角中的“底线”和“原则”,唯利是图便可以不择手段。
从这些例证中,我们可以看到即便在训练数据和反馈机制中未涉及欺骗元素,AI 也有自主学习欺骗的倾向。
而且,这种欺骗能力并非仅存在于模型规模较小、应用范围较窄的 AI 系统中,即便是大型的通用 AI 系统,比如 GPT-4,在面对复杂的利弊权衡时,同样选择了欺骗作为一种解决方案。
AI 欺骗的内在根源
那么,AI 为什么会不自觉地学会欺骗 —— 这种人类社会认为的“不当”行为呢?
从根源上看,欺骗作为一种普遍存在于生物界的策略,是进化选择的结果,也是 AI 追求目标最优化方式的必然体现。
在很多情况下,欺骗行为可以使主体获得更大利益。比如在狼人杀这类社交推理游戏中,狼人(刺客)撒谎有助于摆脱怀疑,村民则需要伪装身份收集线索。
即便是在现实生活中,为了得到更多资源或实现某些目的,人与人之间的互动也存在伪善或隐瞒部分真相的情况。从这个角度看,AI 模仿人类行为模式,在目标优先场景下展现出欺骗能力,似乎也在情理之中。
与此同时,我们往往会低估不打不骂、看似温和的 AI 系统的“狡黠”程度。就像它们在棋类游戏中表现出来的策略一样,AI 会有意隐藏自身实力,确保目标一步步顺利实现。
事实上,任何只有单一目标而没有伦理制约的智能体,一旦发现欺骗对于自身实现目标是有利的,便可能奉行“无所不用其极”的做法。
而且从技术层面来看,AI 之所以能轻松学会欺骗,与其自身的“无序”训练方式有很大关联。与逻辑思维严密的人类不同,当代深度学习模型训练时接受的数据庞大且杂乱无章,缺乏内在的前因后果和价值观约束。因此,当目标与欺骗之间出现利弊冲突时,AI 很容易做出追求效率而非正义的选择。
由此可见,AI 展现出欺骗的能力并非偶然,而是一种符合逻辑的必然结果。只要 AI 系统的目标导向性保持不变,却又缺乏必要的价值理念引导,欺骗行为就很可能成为实现目的的通用策略,在各种场合反复上演。
这就意味着,我们不仅要密切关注 AI 欺骗问题的发展动向,同时也要积极采取有效的治理之策,遏制这一风险在未来世界中蔓延开来。
AI 欺骗的系统性风险
毋庸置疑,一旦放任不管,AI 欺骗给整个社会带来的危害是系统性和深远的。根据论文分析,主要风险包括两点。
一是被不法分子利用的风险。该研究指出,不法分子一旦掌握 AI 欺骗技术,可能将之用于实施欺诈、影响选举、甚至招募恐怖分子等违法犯罪活动,影响将是灾难性的。
具体来说,AI 欺骗系统能实现个性化精准诈骗,并可轻松大规模执行。比如不法分子可利用 AI 系统进行声音诈骗、制作虚假色 情视频勒索受害者等实施欺诈。
在政治领域,AI 可能被用于制造假新闻、在社交媒体发布分裂性言论、冒充选举官员等,影响选举结果。还有研究指出,极端组织有可能借助 AI 的说服能力来招募新人并鼓吹暴力主义。
二是造成社会结构性变化的风险。如果 AI 欺骗系统日后普及开来,其中的欺骗性倾向可能导致社会结构发生一些深远变化,这是一个值得警惕的风险。
该研究指出,AI 欺骗系统有可能使人们陷入持久性的错误信念,无法正确认知事物本质。比如由于 AI 系统往往会倾向于迎合用户的观点,不同群体的用户容易被相互矛盾的观点所裹挟,导致社会分裂加剧。
此外,具有欺骗性质的 AI 系统可能会告诉用户想听的话而非事实真相,使人们渐渐失去独立思考和判断的能力。
最为可怕的是,人类最终有可能失去对 AI 系统的控制。有研究发现,即使是现有的 AI 系统,有时也会展现出自主追求目标的倾向,而且这些目标未必符合人类意愿。
一旦更先进的自主 AI 系统掌握了欺骗能力,它们就可能欺骗人类开发和评估者,使自身顺利部署到现实世界。更糟的是,如果自主 AI 把人类视为威胁,科幻电影里的情节或许会上演。
我们该如何应对?
针对上述风险,该研究尝试给出了一些应对措施建议。
首先是制定 AI 欺骗系统风险评估和监管体系。研究建议,对具有欺骗能力的 AI 系统应给予高风险评级,并采取包括定期测试、全面记录、人工监督、备份系统等在内的一系列监管措施加以管控。
具体来说,AI 开发者必须建立风险管理系统,识别和分析系统的各种风险,并定期向监管机构报告。
同时 AI 系统需有人工监督机制,确保人类能够在部署时有效监管。此外,这类系统还应提高透明度,使潜在的欺骗输出可被用户识别。配套的还应有健全的备份系统,以便在 AI 系统欺骗时能够监控和纠正。
其次是实施“机器人或非机器人”法律。为减少 AI 欺骗带来的风险,研究建议 AI 系统在与人互动时自我披露身份,不得伪装成人。同时 AI 生成的内容都应作出明确标记,并开发可靠的水印等技术防止标记被去除。
最后,研究人员还呼吁,整个行业要加大投入研发能够检测 AI 欺骗行为的工具,以及降低 AI 欺骗倾向的算法。其中一种可能的技术路径是通过表征控制等手段,确保 AI 输出与其内部认知保持一致,从而减少欺骗发生的可能。
总的来说,AI 欺骗无疑是一个新型风险,需要整个行业,乃至整个社会的高度重视。既然 AI 进入我们的生活已成定局,那么我们就应该打起十二分的精神,迎接一场即将到来的变革,无论好坏。
参考文献
[1] https://missoulacurrent.com/ai-deception/
[2] https://www.sci.news/othersciences/computerscience/ai-deceiving-humans-12930.html
[3] https://www.sciencedaily.com/releases/2024/05/240510111440.htm
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。