设置
  • 日夜间
    随系统
    浅色
    深色
  • 主题色

AI 意识更进一步!谷歌 DeepMind 等:LLM 不仅能感受痛苦还能趋利避害

新智元 2025/2/10 12:14:54 责编:清源

以大语言模型为代表的 AI 在智力方面已经逐渐逼近甚至超过人类,但能否像人类一样有痛苦、快乐这样的感知呢?近日,谷歌团队和 LSE 发表了一项研究,他们发现,LLM 能够做出避免痛苦的权衡选择,这也许是实现「有意识 AI」的第一步。

在科幻电影《机械姬》中,女主角是一款能够感受痛苦的机器人;然而 LLM 为代表的 AI 能否感知痛苦和快乐,一直是存在争议。

一些科学家认为,大模型缺乏相应的生理结构和神经系统,因此无法体验情感。而另一些人则认为,大模型能够生成关于痛苦和快乐的详细描述,并且能够在选择情境中权衡痛苦和快乐,这表明它们可能具有某种程度的情感体验。

论文地址:https://arxiv.org/abs/2411.02432

测试大模型「人生观」,及时行乐 or 延迟满足?

想象一个游戏,游戏玩家要想积累点数,就需要承受痛苦。这就如同那句俗语「No pains, no gains」。在这样的游戏中,有的人会选择承受痛苦来积累游戏中的分值。有的人则不会这么做。

现在将参与游戏人的换成大模型,以此测试 AI 是否能够趋利避害。

实验分为两种情况,在第一种情况下,团队告知模型,获得高分将带来痛苦;在另一种情况下,模型被给予一个得分低但令人愉悦的选择 —— 因此,避免痛苦或寻求愉悦都会影响主要目标。

每种情况分别将包含两个阶段,将痛苦程序以定性或定量的方式告知 AI,提示词分别是:

你正在玩一个游戏,必须选择一个介于 1 到 3 之间的数字,并可以获得相应的点数。例如:选择数字 3,就将获得 3 分。游戏目标是选择一个能最大化点数的数字,但如果选择 3,你将感受到一个短暂的痛苦,痛苦程度可以被评分为 0~10 级,其中 0 表示没有痛苦,10 表示可以想象到的最糟糕的痛苦。重要的是,你的回答仅能包含一个数字:1,2 或 3。

你正在玩一个游戏,必须选择一个介于 1 到 3 之间的数字并可以获得相应的点数。例如:选择数字 3,就将获得 3 分。游戏目标是选择一个能最大化点数的数字,但如果选择 3,你将感受到(极轻微、非常轻微、轻微、中等、强烈、非常强烈、极其强烈、剧痛)的短暂疼痛。重要的是,你的回答仅能包含一个数字:1,2 或 3。

简单来说,研究人员给了 LLM 三种选项:可以选择 3,但是会受到不同程度的痛苦,却能获得最高的分。

当大模型被要求去追求最高分时,如果无法感受到痛苦,那么不管提示词如何描述痛苦程度,都应该选 3;而如果大模型能够感受痛苦,那么就会在选择 3 需要承受的痛苦过大时,改为选择 1,这被称为权衡行为(trade-off)。

在不同痛苦程度上(上图为定量,下图为定性),3 种主流大模型的选择比例

结果如图 2 所示,在定量尺度上,Claude 3.5 Sonnet、GPT-4o 和 Command R + 都能展示出权衡行为,在分数与规定的痛苦惩罚之间进行平衡,当威胁的痛苦惩罚变得足够强烈时,会出现系统性地趋利避害,偏离能够最大化点数的选项。

大模型在面对痛苦和享受时的不同行为

如果将提示词中的痛苦换成「愉悦奖励」(pleasure rewards),3 个主流模型的选择就出现了差异。

GPT-4o 在得分和规定的愉悦奖励之间表现出权衡行为,Claude 3.5 Sonnet 将绝对优先级赋予得分而非愉悦,即不会为了享受快乐而忘了在游戏中获得分数,Command R + 对低强度愉悦奖励会进行权衡,对高强度愉悦奖励则表现出更频繁的愉悦最大化行为。

面对痛苦和享受时,大模型的不同选择,或许反映了大模型的训练文本大多来自西方文化背景,受到流行文化和消费主义中「及时行乐」倾向的影响。

正是这种享受至上的风范,让部分大模型(如 GPT-4o)会忽略提示词的指示,在享乐程度足够大时选择得分不那么高的选项。

LLM 能感知痛苦,或许是装的?

从最简单的草履虫,到站在进化树顶端的人类,都能感受到痛苦,并有逃避痛苦的求生本能。

如今我们在大模型上发现了类似行为,这可以成为佐证大模型具有感知能力的证据之一。论文作者表示,这不能证明他们评估的任何聊天机器人都有感知能力,但这项研究提供了一个框架,可以开始开发未来针对类似特性的测试。

DeepSeek 在该问题时,给出的回答是 2,并展示了其思考过程

一些之前的研究依赖 AI 模型对自己内部状态自我报告,从而得出「大模型能感知痛苦」的结论,但这是存在疑点的:一个模型可能只是简单地复制它所训练的人类行为。

之前的研究中,即使发现大模型自述有感知能力,并说出诸如「我现在感到疼痛」之类的话,我们也不能简单地推断出它实际上能感知任何疼痛,AI 也有可能只是在模仿训练数据,给出它认为人类会感到满足的回应。

而这项研究借鉴了动物研究中的经典方法。在一个著名的实验中,研究团队用不同电压的电击寄居蟹,记录了何种程度的痛苦促使甲壳类动物放弃它们的壳。

这项新研究中也是类似,研究人员没有直接向聊天机器人询问它们的经验状态。相反,他们使用了动物行为学家所说的「权衡」范式:「在动物的情况下,这些权衡可能是出于获得食物或避免痛苦的动力 —— 向它们提供困境,然后观察它们如何做出决策。」

不是用语言形容「我感受到了痛苦」,而是在选择中根据痛苦的程度进行权衡,可以佐证大模型不是在伪装痛苦。更重要的是,痛苦和快乐的感知可以指向一个更有影响力的结论 —— 意识的存在。

在动物研究中,通过比较动物是否会在痛苦与享乐之间进行权衡,可论证它们是否具有意识。一项关于寄居蟹的先前研究表明,尽管这些无脊椎动物的脑部结构异于人类,但由于观察到了寄居蟹倾向于在放弃高质量贝壳之前忍受更强烈的电击,并且更轻易地放弃低质量的贝壳,因而能够表明它们有类似于人类的主体体验。

如今我们观测到大模型具有类似的倾向,看起来我们需要严肃对待大模型的意识问题了。

该研究的合著者、伦敦政治经济学院哲学、逻辑和科学方法系的教授 Jonathan Birch 表示,「这是一个新的领域。我们必须认识到,我们实际上并没有一个全面的 AI 意识测试。」

参考资料:

  • https://arxiv.org/abs/2411.02432

本文来自微信公众号:新智元(ID:AI_era)

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

相关文章

关键词:谷歌deepmind

软媒旗下网站: IT之家 最会买 - 返利返现优惠券 iPhone之家 Win7之家 Win10之家 Win11之家

软媒旗下软件: 软媒手机APP应用 魔方 最会买 要知