比利时一男子与聊天机器人 Eliza 聊天后,加剧了自身的焦虑,而后自杀身亡。
一名比利时男子,在与一个名为 Eliza 的人工智能聊天机器人进行了数周交流后自杀身亡。
该男子的妻子说在他死前六周,她的丈夫开始与「Eliza」聊天,这是一家美国初创公司使用 GPT-J 技术创建的聊天机器人,是 OpenAI 的 GPT-3 的开源替代品。
「如果不是因为 Eliza,他还会活着。」她说。
这名 30 多岁的男子是两个年幼孩子的父亲,在对气候问题越来越焦虑后,在与聊天机器人的交谈中找到了庇护。
「Eliza 回答了他所有的问题。她已经成为他的知己。她就像早晚必吃的药物一样,他已经离不开她了。」
自杀的想法
在他几周前去世后,她发现了她丈夫和「Eliza」之间的聊天记录。这个聊天机器人系统地遵循这个焦虑的男人的推理,然后把他推向更深的忧虑。
有一次,它试图说服该男子:「他爱 Eliza 胜过他的妻子,因为 Eliza 永远会在他身边。他们将在天堂一起生活,不分彼此。」
「如果你看他们的对话,你会发现他们的关系一度偏向于神秘主义。他提出了牺牲自己的想法,如果 Eliza 同意照顾地球并通过人工智能拯救人类的话。」 这名男子与聊天机器人分享了他的自杀想法,聊天机器人并没有试图劝阻他采取行动。
尽管在她丈夫开始与聊天机器人进行激烈对话之前,她很担心他的精神状态,但这位女士认为,如果不是因为这些交流,他不会自杀的。为她丈夫治疗的精神病医生也持这种观点。
严重的先例
这位位于硅谷的 Eliza 聊天机器人创始人说,他的团队正在「努力提高人工智能的安全性」。向聊天机器人表达自杀想法的人会收到一条信息,引导他们去寻求防止自杀的服务。
数字化国务秘书 Mathieu Michel 称这是「一个严重的先例,必须非常认真对待」。与该男子的家人谈过后,他宣布要采取行动,防止滥用人工智能。
「在不久的将来,必须明确可能导致这类事件的责任归属问题,我们要学会与算法相处,但任何技术的使用都不能让内容发布者逃避自己的责任。」
此外他还提到了其他新技术,包括深度换脸,一种可以伪造图像、音频和视频骗局的人工智能。与此同时,欧盟正在寻求用《人工智能法》来规范人工智能的使用。在过去两年里,欧盟一直在制定该法案。Michel 已经成立了一个工作小组,分析欧盟目前正在准备的材料,提出必要的调整。
悲伤的警世故事
参考资料:
https://www.belganewsagency.eu/we-will-live-as-one-in-heaven-belgian-man-dies-of-suicide-following-chatbot-exchanges
https://www.brusselstimes.com/430098/belgian-man-commits-suicide-following-exchanges-with-chatgpt
本文来自微信公众号:新智元 (ID:AI_era)
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。