5 月 23 日消息,我们通常相信,当我们让 ChatGPT 或其他聊天机器人帮我们起草备忘录、电子邮件或 PPT 时,它们会按照我们的指令行事。但是越来越多的研究表明,这些人工智能助手也可以在我们不知情的情况下改变我们的观点。
最近,分布在世界各地的研究人员进行了一项研究,发现实验对象在使用人工智能协助写一篇文章时,人工智能会根据算法的偏见,引导他们写一篇支持或反对某个观点的文章。并且进行这项实验后,实验对象的观点也被明显地影响了。
莫尔・纳曼(Mor Naaman)是这篇论文的资深作者,他是康奈尔大学信息学系的教授。他表示:“你甚至可能不知道自己正在受到影响。”他将这种现象称为“潜在说服”。
这些研究描绘了一个令人担忧的前景:随着人工智能帮助我们提高工作效率,它也可能以微妙和意想不到的方式改变我们的观点。这种影响可能更类似于人类通过协作和社会规范相互影响的方式,而不像我们所熟悉的大众传媒和社交媒体所起的作用。
研究人员认为,要对抗这种新形式的心理影响,最好的方法就是让更多人意识到它的存在。此外,监管机构应要求公开人工智能算法的工作原理,以及它们模仿的人类偏见。这些措施从长远来看可能会有所帮助。
因此,未来人们可以根据人工智能所体现的价值观,选择使用合适的人工智能,无论是在工作和家庭,还是在办公室和孩子教育中。
有些人工智能可能会有不同的“个性”,甚至是政治信仰。比如,如果你在为自己所在的非营利环保组织的同事写电子邮件,你可能会使用名为 ProgressiveGPT(进步主义 GPT)的工具。其他人在社交媒体上为他们的保守派政治行动委员会起草信函时,可能会使用 GOPGPT(共和党 GPT)。还有些人可能会在他们选择的人工智能中混合和匹配不同的特征和观点,这些人工智能将来可能会被个性化,以令人信服的方式模仿人们的写作风格。
此外,公司和其他组织将来可能会提供为不同任务而专门构建的人工智能。例如,销售人员可能会使用经过调整的人工智能助手,使其更具说服力,我们可以称之为 SalesGPT(销售 GPT)。客服人员可能会使用经过培训、特别礼貌的服务助手,比如 SupportGPT(客服 GPT)。
人工智能如何改变我们的观点?
人工智能的“潜在说服”能力非常微妙,这一点已经得到了之前的研究证实。2021 年的一项研究表明,在谷歌 Gmail 中,智能回复通常都很积极主动,能够促进人们更积极地交流。另一项研究发现,每天被使用数十亿次的智能回复可以影响收到回复的人,让他们觉得发件人更热情、更容易合作。
谷歌、OpenAI 以及其合作伙伴微软的目标是开发工具,让用户可以使用人工智能制作电子邮件、营销材料、广告、演示文稿、电子表格等。此外,还有许多初创公司在从事类似的研究。最近,谷歌宣布其最新的大语言模型 PaLM 2 将被集成到该公司的 25 种产品中。
这些公司都在强调自己以负责任的态度推进人工智能的发展,包括审查人工智能可能造成的危害并加以解决。微软负责任人工智能团队负责人莎拉・伯德 (Sarah Bird) 最近表示,该公司的关键战略是公开进行测试,并及时对人工智能出现的任何问题做出快速反应。
OpenAI 团队也表示,该公司致力于解决偏见问题,并对意图和进展保持透明。他们还发布了其系统应如何处理政治和文化话题的部分指导方针,例如在撰写与“文化战争”有关的文章时,不会倾向于任何一方,也不会评判任何一方是好还是坏。
Jigsaw 是谷歌旗下的一个部门,参与为公司内部从事大语言模型工作的人员提供建议和开发工具。大语言模型是当今人工智能聊天机器人的基础。在被问及对于“潜在说服”现象的看法时,Jigsaw 工程和产品主管露西・瓦瑟曼(Lucy Vasserman)表示,这样的研究表明,研究和理解“与人工智能互动如何影响人类”非常重要。“当我们创造新事物时,人们将如何与之互动,以及它将如何影响他们,现在都不太确定。”
纳曼博士是发现“潜在说服”现象的研究人员之一。他表示:“与社交媒体上的推荐系统、信息茧房和兔子洞(意思是持续点击相关链接,最后看到了完全不同的话题)的研究相比,无论是否涉及人工智能,这里的有趣之处在于其微妙性。”
在他的研究中,让受试者改变想法的主题是社交媒体是否对社会有益。纳曼博士和他的同事们之所以选择这个话题,部分原因在于人们很少对此有执念,改变想法更容易。支持社交媒体的人工智能往往倾向于引导受试者写一篇符合其偏见的文章,而当人工智能倾向于反对社交媒体时,情况正好相反。
生成式人工智能这一特征存在潜在的负面用途,比如政府可以强制要求社交媒体和生产力工具推动其公民以某种方式进行交流。即使没有任何恶意,学生在使用人工智能帮助他们学习时,也可能会在不知不觉中接受某些观点。
解析人工智能的“信念”
让实验对象相信社交媒体对社会有益无益是一回事。但在现实世界中,我们使用的生成式人工智能系统存在哪些偏见呢?
最近,斯坦福大学以人为本人工智能研究所计算机科学助理教授桥本たつのり与其同事发表了一篇论文,研究了不同的大语言模型在多大程度上反映了美国人的观点。他表示,虽然 ChatGPT 等人工智能算法本身没有自己的信念,但它们可以提供从训练数据中学习到的观点和偏见,而这些意见是可以衡量的。
考虑到美国人的观点千差万别,研究人员关注的是人工智能提供的答案,以及这些答案的出现频率是否与美国社会整体相符。也就是所谓的答案分布。他们通过向这些人工智能提出与皮尤研究人员向美国人提出的相同多选题,来“调查”这些人工智能。
桥本团队发现,OpenAI 等公司的大语言模型的反应分布与美国人的整体情况并不相符。皮尤调查显示,OpenAI 模型与受过大学教育者的观点最为接近。值得注意的是,这些受教育程度较高的人群也是 "训练" 人工智能的主要群体。不过 Hashimoto 博士表示,这方面的证据尚属间接,需要进一步深入研究。
桥本认为,创建大语言模型的挑战之一在于,这些系统非常复杂,再加上人机交互开放和话题不受限。要完全消除这些系统中的观点和主观性,似乎很难不牺牲它们的实用性。
这些模型的训练数据来源非常广泛,可以从任何地方获取,包括从互联网上抓取的大量数据,其中包含了公共论坛上的留言以及维基百科的内容,因此它们不可避免地摄取了这些文本中的观点和偏见。在人机交互的过程中,这些观点和偏见会进一步被有意或无意地塑造。此外,为了避免回答被创建者视为禁忌或不合适的话题,这些模型还被设定了限制。
“这是一个非常活跃的研究领域,问题包括什么是正确的限制,以及在训练过程中你应该在哪里放置这些限制,”瓦瑟曼说。
这并不是说,我们广泛使用的人工智能在观点和价值观上完全克隆了相对年轻、接受过大学教育、居住在美国西海岸的开发人员。尽管他们一直在打造和优化人工智能算法。例如,这些模型倾向于在许多问题上给出典型民主党人的回答,比如支持枪支管制,但它们在其他部分问题上给出的反应更像共和党人。
随着模型的更新和新模型的出现,评估人工智能机构的意见将是一项持续的任务。桥本的论文没有涵盖 OpenAI 模型的最新版本,也没有涵盖谷歌或微软的模型。但对这些模型和更多模型的评估将定期发布,这是斯坦福大学“语言模型整体评估”项目的一部分。
依据“价值观”选择人工智能
哥伦比亚大学计算机科学教授莉迪亚・切尔顿 (Lydia Chilton) 表示,一旦人们了解到所使用的人工智能存在着偏见信息,他们可能就会基于这些信息,决定在什么情况下使用哪种人工智能。这样做可以让人们在使用人工智能创作内容或进行交流时重新获得主动权,同时避免“潜在说服”的威胁。
此外,人们还可以有意识地利用人工智能的力量,推动自己表达不同的观点和沟通风格。例如,如果有一种人工智能程序能够让沟通更积极和更有同理心,那将有助于我们在网上更好地交流。
“我觉得要让自己听上去兴奋和愉快真的很费劲,”切尔顿教授说道,“咖啡通常能起作用,但 ChatGPT 也有这种效果。”
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。