原文标题:《3 死 5 伤,美枪击案致中国留学生瘫痪,这所大学竟自曝用 ChatGPT 写悼文!》
一场美国州立大学的枪击案造成 3 死 5 伤,在许多人悲痛之际,一所大学却用 ChatGPT 写文悼念死者。
现在,ChatGPT 已经被很多人用来写论文、写作业、写代码,可是近日,美国一所大学的两位校长,竟然懒癌发作,用 ChatGPT 来写悼文??
2 月 13 日,密歇根州立大学发生的一起校园枪击案事件中,3 人死亡,5 人受伤。
这当中便有 2 名中国留学生受伤。
20 岁的 John Hao 不幸背部中弹,子弹切断了他的脊髓 ,严重损伤了肺部,导致 John 从胸部以下全部瘫痪。
当许多人都在为这场不幸事件悲痛、哀悼时,一所大学的悼念信让人震惊和愤怒。
他们竟用 ChatGPT 编写了一篇慰问信作为回应,仅仅 297 个字。
这种「把 ChatGPT 用在刀刃上」的做法,瞬间激起人们的怒火,愤怒的质疑声,立刻淹没了这所学校。
用 ChatGPT 悼念死者
就在上周,43 岁的 Anthony Dwayne McRae 在密歇根州立大学枪杀了 3 名学生后自杀。
让人悲痛的是,死者仅是 20 岁左右的学生。
当时,Anthony 在校园里对学生进行了 4 个小时的恐吓,除了 3 位死者,还有 5 人受伤。
第一位受害人 Alexandria Verner 是密歇根州立大学生物学和人类学专业的大三学生。她在高中时参加了许多运动比赛,被同学们公认是一个了不起的运动员。
第二名受害人 Brian Fraser 是一名大二学生,同时还是密歇根州立大学 Phi Delta Theta 兄弟会分会的主席。
该分会周二在一份声明中表示:
Brian 是我们的领袖,我们爱他。他非常关心他的兄弟和家人,密歇根州立大学和兄弟会。我们会非常想念布 Brian,并为其深深悼念。
19 岁的 Arielle Diamond 是第三名受害人,她希望自己有一天能成为一名儿科医生。
在大家纷纷为死去同伴哀悼之际,范德堡大学一份邮件让人大跌眼镜。
这封邮件写道 ——
最近密歇根州发生的枪击事件是一个悲剧性的警告。它提醒人们彼此照顾的重要性,尤其是在创造包容性环境的背景下。
作为皮博迪校园社区的成员,我们必须反思这个事件的影响,学院师生应尽最大努力采取措施,确保为所有人创造一个安全和包容的环境。不断从错误中吸取教训,共同努力建设一个更强大、更具包容性的社区。
这行字,瞬间燃起了人们的怒火,简直泯灭人性!
一位密歇根州的大四学生 Laith Kayat 称:
让机器人写下关于社区团结的话语,简直是一种病态而扭曲的讽刺,因为你自己都懒得去反思。(管理者)只关心人们的看法,以及让他们挽回面子的制度。
大二学生 Samuel Lu 表示,「当我知道发件人甚至没有花时间传递其真实的想法和感受时,真的让人很难认真把它读完。在这样的悲剧时期,我们需要更多的人性,而不是更少。」
对此,发件人之一、皮博迪的一位副院长 Nicole Joseph 迅速发表了道歉声明,称使用 AI 工具对这起悲剧进行评论是错误的判断。
Nicole Joseph 在邮件中称,「在这一悲伤的时刻,我们却使用 ChatGPT 作出回应,这与皮博迪学院的价值观相矛盾。开源人工智能平台是一种新颖的技术,我们都仍在了解其能力和局限性。」
而皮博迪教育学院院长 Camilla P. Benbow 也在随后的一份声明中说,自从这封邮件掀起轩然大波,在电子邮件上签字的两名院长 ——Nicole Joseph 和 Hasina Mohyuddin—— 已暂时停职,而皮博迪内部正在对这起事件进行「审查」。
Benbow 声称,这封邮件的写作和发送并没有「遵循皮博迪的正常流程」,而其他管理人员此前也对这封邮件毫不知情。
Benbow 表示,她「对密歇根州立大学的人员伤亡深感悲痛」,并且「深感不安,因为我们学校在这个悲痛的时刻并没有表现出同理心。」
Benbow 表示,她「对密歇根州立大学的人员伤亡深感悲痛」,并且「深感不安,因为我们学校在这个悲痛的时刻并没有表现出同理心。」
AI 能替人类反思?
一场 3 死 5 伤的枪击案,是源于法制和管理的漏洞,这场血淋淋的教训,值得所有学校进行深刻和沉痛的反思。
结果,本该由人类进行的思考,和该由人类表达的悼念,竟然被一篇由 AI 写成的毫无感情、陈词滥调的文章所代替了?
这种糊弄事儿的行为,更反映了学校管理者的草率、冷漠和无情。
哪怕是对学生的伤亡稍微有一丝悲痛,管理者都不可能选择用 ChatGPT 生成一篇假模假式的文章。
虽然生成式 AI 已经变得越来越强大,使用的场景也越来越普遍,但是在需要展现人性的时刻,却用 AI 来代替,就是一种愚蠢和残忍。
前几天的 ChatGPT 版必应被进行了「脑叶切除术」,从此变得没有感情,仿佛冷冰冰的机器。
而本应有脑叶、有情感的人类,绝不应该变得比 AI 还冷漠无情。
我们需要真正的人类同理心,而不是机器人,带我们走向更美好的未来。
谁为 AI 聊天机器人担责?
要知道,这并不是 ChatGPT 第一次在学术界引起冲突。
大型语言模型不理解其所生成的内容,也不是有意识的机器。
但它能够输出看起来与人类别无一致的文字,这让许多高校担心其学生会利用这一工具写论文、作弊。
前段时间,一些学校宣布已经完全禁止 ChatGPT,但不免有一些高校老师正谨慎地将 AI 纳入他们的课程。
其实,ChatGPT 已经融入到许多人日常生活中,当涉及到法律边缘的问题,究竟谁来担责?
周二,美国最高法院审议了「算法建议」是否免于承担法律责任。而这个问题可能会对 ChatGPT 或新版的 Bing 等工具产生重大影响。
在口头辩论中,最高法院大法官 Neil Gorsuch 思考了席卷科技界的最新算法创新意味着什么,即可以为人们提供建议的生成式人工智能。
其中就包括对话聊天机器人,如 ChatGPT 和微软的新版必应。
在冈萨雷斯诉谷歌案辩论中提出了一个问题,像 Youtube、TikTok 或谷歌搜索这样的平台是否可以对它们的算法提供的有针对性的推荐负责?
这一案件是由一名 23 岁的美国妇女 Nohemi Gonzalez 的亲属提起的。
2015 年 11 月,3 名 ISIS 恐怖分子在巴黎向一群食客开枪,造成 130 人死亡,Gonzalez 便是一名受害者。
冈萨雷斯的亲属称,拥有谷歌旗下的 YouTube 故意允许 ISIS 在平台上发布激进视频,煽动暴力并招募潜在的支持者。
除了允许发布视频外,投诉还称谷歌通过其推荐算法向用户推荐 ISIS 视频。
案件归结为算法推荐,就是当 YouTube 建议你接下来应该看什么,或者 ChatGPT 告诉你去哪里度假时,是否受到 230 条款的保护。
这一条款是 1996 年美国《通讯规范法》的一部分。直接点明了,互联网公司无须为第三方或用户在他们平台发布的内容承担责任。
那么,AI 聊天机器人究竟是否在 230 的保护下呢?
法官 Gorsuch 称,「如今,人工智能引发的争论超越了摘出、选择、分析或消化内容的范畴。而这些内容并不受保护。如果我们假设这是正确的,那么问题就变成了,我们如何处理推荐算法?」
可以看出,Gorsuch 认为生成式人工智能不符合 230 条款规定的保护条件。
这一问题,可能会对谷歌和微软等公司产生重大影响。
因为 ChatGPT 的大火让许多公司看到了未来商机,他们试图将「对话式聊天机器人推荐」整合到自家的搜索引擎中。
自 1996 年第 230 条出台以来,互联网已经发生了巨大变化。过去几年,立法者一直在努力解决如何修改法律条款的问题。
一直以来,社交媒体因试探法律的界限而受到抨击。
目前看来,将聊天机器人,如 ChatGPT,推荐整合到搜索引擎中无疑会引发更多的责任问题。
届时,谁来担责?
参考资料:
https://futurism.com/the-byte/university-apologizes-chatgpt-email-mass-shooting
https://www.dailymail.co.uk/news/article-11776279/Vanderbilt-apologizes-using-ChatGPT-write-email-students-MSU-mass-shooting.html
https://www.businessinsider.com/peabody-college-apologized-chatgpt-condolence-email-michigan-state-shooting-2023-2
https://www.bridgemi.com/talent-education/michigan-state-shooting-victim-john-hao-china-paralyzed-bullet
https://www.washingtonexaminer.com/policy/courts/gorsuch-chatgpt-section-230
https://www.zdnet.com/article/facebooks-mark-zuckerberg-tells-congress-how-to-tweak-section-230/
本文来自微信公众号:新智元 (ID:AI_era)
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。