设置
  • 日夜间
    随系统
    浅色
    深色
  • 主题色

图灵奖得主 LeCun:ChatGPT 局限巨大,自回归模型寿命不超 5 年

新智元 2023/4/26 12:16:02 责编:梦泽

图灵奖得主 Yann LeCun 畅谈 AI:未来是开源。

今年上半年,可谓是 AI 届最波澜壮阔的半年。

在急速发展的各类 GPT 甚至 AGI 的雏形背后,是持不同观点的两大阵营的人们。

一派认为,以 ChatGPT 为首的生成式 AI 非常强大,能带动一大波革命性的风潮,继续推进没有问题。

另一派认为,咱发展的有点太快了。不说禁止,也得停一停。而且道德方面,相匹配的约束也太少了。

而作为 AI 届的一位大拿,Yann LeCun 对此却有不同看法。

彻底禁止?不可行

LeCun 表示,他对 ChatGPT 的表现并不感到惊讶,也不赞成暂停人工智能的研究。

「这可能会产生和预期相反的结果。」

他表示,人工智能作为人类智能的放大器,可能是新文艺复兴的起源。

ChatGPT 这种大语言模型是「自回归」。AI 接受训练,从一个包含多达 14000 亿个单词的语料库中提取单词,预测给定句子序列中的最后一个单词,也就是下一个必须出现的单词。

Claude Shannon 在上个世纪 50 年代开展的相关研究就是基于这一原则。

原则没变,变得是语料库的规模,以及模型本身的计算能力。

LeCun 表示,「目前,我们无法靠这类模型生成长而连贯的文本,这些系统不是可控的。比如说,我们不能直接要求 ChatGPT 生成一段目标人群是 13 岁儿童的文本。

其次,ChatGPT 生成的文本作为信息来源并不是 100% 可靠的。GPT 的功能更像是一种辅助工具。就好比现有的驾驶辅助系统一样,开着自动驾驶功能,也得把着方向盘。

而且,我们今天所熟知的自回归语言模型的寿命都非常短,五年算是一个周期,五年以后,过去的模型就没有人再会用了。

而我们的研究重点,就应该集中在找到一种是这些模型可控的办法上。换句话说,我们要研究的 AI,是能根据给定目标进行推理和计划的 AI,并且得能保证其安全性和可靠性的标准是一致的。这种 AI 能感受到情绪。」

要知道,人类情绪的很大一部分和目标的实现与否有关,也就是和某种形式的预期有关。

而有了这样的可控模型,我们就能生成出长而连贯的文本。

LeCun 的想法是,未来设计出能混合来自不同工具的数据的增强版模型,比如计算器或者搜索引擎。

像 ChatGPT 这样的模型只接受文本训练,因此 ChatGPT 对现实世界的认识并不完整。而想要在此基础上进一步发展,就需要学习一些和整个世界的感官知觉、世界结构有关的内容。

而这些更复杂的内容并不是简单地通过阅读文本就能实现的,这才是未来几年的最大挑战之一。

开源才是尽头

对权力的渴望,是人类特有的。而 AI 并不会因为变得越来越强大就会具备这种渴望。

只有人类这个物种才知道如何制定法律,保障个体的行为不会过多损害共同利益。

OpenAI 最初是一个开放的研究项目,现在已经关闭了。而 OpenAI 对其工作只字未提,这种情况的逆转在研究领域并不常见。

问题在于训练一个语言模型很昂贵,要花费几千万欧元,所以初创企业负担不起。

这也是微软与 OpenAI 合并的主要原因,需要集团共同的计算能力来改进其未来的模型。这也是为什么 DeepMind 和谷歌大脑最终还是合并了。

LeCun 表示,最终在市场方面,开发者会走向一个开放平台的共同生态。如果只有少部分公司控制着这类技术,就糟糕了。

从历史上来看,不管是 Facebook 还是改完名的 Meta,都在积极推动开放性的基础研究,比如 LlaMa 这个开源项目。

90 年代初期,Sun Microsystems 和 Microsoft 大打出手,争夺操作服务器的权力。要记住,所有能一直站稳脚跟的互联网技术都是开源的。

LeCun 最后表示,目前,阻止这类开放的开源 AI 平台的关键,是法律上的问题。如果未来欧盟想要推动 AI 产业的结构化,那么这种类似的开源平台是必不可少的。

参考资料:

  • https://twitter.com/USBEKetRICA/status/1648597311843450881

本文来自微信公众号:新智元 (ID:AI_era)

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

相关文章

关键词:人工智能ChatGPT

软媒旗下网站: IT之家 最会买 - 返利返现优惠券 iPhone之家 Win7之家 Win10之家 Win11之家

软媒旗下软件: 软媒手机APP应用 魔方 最会买 要知