3 月 31 日消息,特斯拉首席执行官埃隆・马斯克(Elon Musk)、苹果联合创始人史蒂夫・沃兹尼亚克(Steve Wozniak)以及其他上千名 AI 研究人员日前签署公开信,呼吁暂停研究更先进的 AI 技术。然而,此信遭到许多专家甚至签名者的质疑,被指加剧 AI 炒作、签名造假以及歪曲论文等。
这封公开信由非营利组织“生命未来研究所”(Future of Life Institute) 撰写,其使命是“减少强大技术带来的全球灾难性和生存风险”。具体来说,该研究所专注于减轻人类的长期“生存”风险,比如超级智能 AI。马斯克是该组织的支持者,他在 2015 年曾向其捐赠了 1000 万美元。
信中写道:“只有在我们确信 AI 的影响是积极的、风险是可控的情况下,才应该开发更强大的 AI 系统。因此,我们呼吁所有 AI 实验室立即暂停至少 6 个月训练比 GPT-4 更强大的 AI 系统。AI 实验室和独立专家应该利用这段时间,共同开发和实施一套高级 AI 设计和开发的共享安全协议,这些协议由独立的外部专家严格审计和监督。”
这封信还澄清说:“这并不意味着 AI 发展总体上处于暂停状态,只是从危险的竞赛退回到具有紧急功能的更大、不可预测的黑箱模型。”它指的是微软和谷歌等大型科技公司之间的 AI 竞赛,这两家公司在过去一年发布了许多新的 AI 产品。
其他著名的签名者包括图像生成器创企 Stability AI 首席执行官伊马德・穆斯塔克(Emad Mostaque)、作家兼历史学家尤瓦尔・诺亚・哈拉里(Yuval Noah Harari)和 Pinterest 联合创始人埃文・夏普(Evan Sharp)等。也有参与 AI 竞赛的公司的员工签名,包括谷歌姊妹公司 DeepMind 和微软。尽管 OpenAI 开发并商业化了 GPT 系列 AI 模型,但没有人在信上签名。
尽管经过了验证过程,但这封信一开始还是有许多虚假签名者,包括冒充 OpenAI 首席执行官萨姆・阿尔特曼(Sam Altman)、Meta 首席 AI 科学家雅恩・勒昆(Yann LeCun)的人。之后,生命未来研究所清理了名单,并在验证每个签名时暂停了在信上显示更多签名。
然而,这封公开信的发布已经引起了轩然大波,受到许多 AI 研究人员的仔细审查,包括许多签名者本人。有些签名者重新改变了自己的立场,有些知名人士的签名被证明是假的,更多 AI 研究人员和专家则公开对这封信中的描述和提议的方法表达了反对意见。
纽约大学心理学和神经科学教授加里・马库斯(Gary Marcus)说:“这封信并不完美,但其精神是正确的。”同时,Stability AI 首席执行官穆斯塔克在推特上表示,OpenAI 是一家真正“开放”的 AI 公司,“所以,我不认为暂停训练六个月时间是最好的主意,也不同意信中的很多观点,但这封信中有些地方的确很有趣。”
AI 专家批评这封信进一步推动了“AI 炒作”,但却没有列出或呼吁对当今存在的 AI 危害采取具体行动。有些人认为,这宣扬了一种长期却有些不符合实际的观点,这种观点被批评为有害和反民主的,因为它对超级富豪更有利,并允许他们在某些理由下采取道德上可疑的行为。
华盛顿大学语言学系教授、公开信开头所引用论文的合著者艾米丽・本德尔(Emily M. Bender)在推特上写道,这封信中“充斥着 AI 炒作”,并滥用了她的研究成果。信中称:“广泛的研究表明,具有堪比人类智慧的 AI 系统可能会对社会和人类构成重大威胁。”但本德尔反驳说,她在研究中特别指出,这种威胁是指目前的大型语言模型及其在压迫系统中的使用情况,这比公开信中假设的未来 AI 威胁要具体得多,也更紧迫。
本德尔继续写道:“我们在 2020 年底发布了完整论文,指出这种不考虑风险而急于建立更大语言模型的做法存在问题。但风险和危害从来都不是‘AI 过于强大’,相反,它们关乎权力集中在人民手中,关乎重现压迫体系,关乎对信息生态系统的破坏,关乎对自然生态系统的破坏等。”
AI 初创公司 Hugging Face 的研究科学家萨莎・卢西奥尼(Sasha Luccioni)在接受采访时表示:“公开信在本质上是一种误导:让每个人都注意到大型语言模型被臆想的力量和危害,并提出非常模糊、几乎无效的解决方案,而不是在此时此刻关注这些危害并解决它们。例如,在涉及 LLM 的培训数据和能力时要求更多的透明度,或者要求立法规定在哪里和何时可以使用它们。”
普林斯顿大学计算机科学副教授阿尔温德・纳拉亚南 (Arvind Narayanan) 表示,这封公开信充满了 AI 炒作,“使解决真实的、正在发生的 AI 危害变得更加困难”。
公开信中提出了几个问题:“我们是否应该自动化所有工作,包括那些让人有成就感的工作?我们是否应该培养非人类思维,这些思维最终可能会超过人类智慧并取代我们?我们应该冒着失去对文明控制的风险继续开发 AI 吗?”
对此,纳拉亚南说,这些问题都是“无稽之谈”,“荒谬无比”。计算机是否会取代人类并接管人类文明,这是一个非常遥远的问题,是长期主义思维的一部分,它分散了我们对当前问题的注意力。毕竟,AI 已经被整合到人们的工作中,减少了对某些职业的需求,而不是一种会让我们“过时”的“非人类思维”。
纳拉亚南还称:“我认为,这些可以算是合理的长期担忧,但它们已被反复提及,转移了人们对当前危害的注意力,包括非常真实的信息安全和安全风险!而解决这些安全风险将需要我们精诚合作。但不幸的是,这封信中的炒作,包括对 AI 能力和事关人类生存风险的夸大,可能会导致 AI 模型被更多地束缚,使应对风险变得更加困难。”
不过,许多公开信的签字人也进行了辩护。研究机构 Mila 创始人兼科学主任约书亚・本吉奥(Yoshua Bengio)表示,六个月的暂停时间对于包括政府在内的治理机构理解、审计和验证 AI 系统是必要的,可以确保这些系统对公众是安全的。他补充说,目前存在危险的权力集中,AI 工具有可能破坏民主的稳定,“民主价值观和开发这些工具的方式之间存在冲突”。
麻省理工学院 NSF AI 与基础交互研究所 (IAIFI) 物理学教授、未来生命研究所所长马克斯・泰格马克 (Max Tegmark) 表示,最糟糕的情况是,人类将逐渐失去对文明的控制。他说,目前的风险在于,“我们失去了对科技公司中一群未经选举产生的权力人士的控制,他们的影响力太大了。”
这些评论谈到了广阔的未来,暗示着对失去文明控制的恐惧,但除了呼吁 6 个月的暂停期之外,没有谈到任何具体措施。
计算机科学家、分布式 AI 研究所创始人蒂姆尼特・格布鲁(Timnit Gebru)在推特上发帖称,具有讽刺意味的是,他们呼吁暂停训练比 GPT-4 更强大的 AI 模型,但却未能解决围绕 GPT-4 本身的大量担忧。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。