“今天的大型神经网络可能已经初具意识了。”
OpenAI 首席科学家 Ilya Sutskever 在 Twitter 上撂下这句话,可谓语不惊人死不休。
这下可让 AI 圈炸开了锅,人工智能、神经科学领域专家的回复滚滚而来。反击最激烈的就是图灵奖得主、Meta AI 首席科学家 Yann LeCun。
LeCun 当场回击,学界大佬纷纷下场
LeCun 对此的第一条回复是这样的:
不同意!(目前的 AI)没有达到“稍微有意识”的下限,甚至还没有达到“大型神经网络”的上限。
他还说,如果非要给现阶段的 AI 下定义,那么:
我认为你需要一种当前网络都不具备的特定类型的宏架构。
见到自家员工和当初创业伙伴被怼,OpenAI 联合创始人 Sam Altman 也亲自下场评论:
OpenAI 的首席科学家表达了对一个神秘想法的好奇心和开放性,用的是“可能”一词做前提。
而 Meta 的首席 AI 科学家却斩钉截铁地说“不”。
下面这句语气略有些嘲讽,似乎是在暗示 OpenAI 因开放的态度取得了更多成果。
这可能解释了过去 5 年的很多情况。
推文结尾处,Sam Altman 还不忘挖竞争对手墙脚:
尊敬的 Meta AI 研究人员:我的电子邮件地址是 sama@openai.com。我们正在招聘!
接着,LeCun 还拉上了 OpenAI 另一位联合创始人马斯克,以后者航空与航天技术差异做对比。
一个人可以建造更快的飞机,并打破高度纪录。
但如果一个人的目标是进入太空轨道,就必须研究低温罐、涡轮泵等。
不要那么华而不实。你可以去问问马斯克。
除 LeCun 外,其他 AI 界人士也对 OpenAI 此番言论口诛笔伐。
知名 AI 专家、新南威尔士大学教授 Toby Walsh 插话说:
每次有这种投机性言论放出,我们都需要花好几个月的努力,才能让人们消除疑虑。
DeepMind 高级研究科学家这样嘲讽道:
如果这种观点成立的话,那么大片麦田里可能也有一点意大利面。
虽然在 Twitter 上批评占据了多数,但仍有一些支持 OpenAI 的言论。
一位来自 MIT CSAIL 的研究员 Tamay Besiroglu 表示:
看到这么多著名的机器学习人士嘲笑这个想法,真是令人失望。
这让我对他们能够解决未来几十年一些重要问题的能力降低了希望。
他认为,像 OpenAI 而不是 Meta 这样的实验室更有可能解决在不久的将来在该领域出现的深刻、奇怪和重要的问题。
另外,这次吵架还有个意外的收获,那就是 Sam Altman 透露了 GPT-4 的最新消息。
从他的表述来看,GPT-4 很可能是 GPT-3 的延续。
去年,为 OpenAI 提供超大型 AI 芯片 WSE-2 的公司 Cerebras 透露,GPT-4 约有 100 万亿个参数,而且还要等上好几年。
回到这场争论风暴的“核心”来看,究竟是什么让 Ilya Sutskever 发出这样的感慨?或许从他的经历中可以窥见一斑。
从最初的 AlexNet,到后来的 AlphaGo,再到见证 GPT-3 和 Codex 等模型的横空出世,几乎每一次 AI 领域的“破圈”技术,都有他参与其中。
在 AGI 道路上“越走越远”
Ilya Sutskever 本硕博毕业于多伦多大学,曾经是 Geoffrey Hinton 的学生。事实上,Sutskever 正是 AlexNet 的作者之一。
2012 年,在 Hinton 老爷子的指导下,他和 Alex Krizhevsky 共同设计了这个架构,在当年 ImageNet 挑战赛上夺冠,比第二名错误率低 10.8%。
Hinton 创办的 DNNResearch 被谷歌收购后,Sutskever 加入谷歌大脑任研究科学家。
他曾经参与开发著名的 AlphaGo,成为众多论文作者之一,后者在 2016 年的围棋比赛中 4 比 1 击败了李世乭。
在谷歌期间,他还与谷歌大脑的另外两名科学家合作,提出了 NLP 经典框架之一 seq2seq 算法。
2015 年末,Sutskever 离开谷歌,与马斯克、Sam Altman 等人共同创立 OpenAI。
2018 年,在干了两年多研究主管(research director)之后,他成为 OpenAI 的首席科学家(chief scientist)。
可以说 OpenAI 从 GPT-2 研发到 GPT-3,从击败 DOTA2 冠军战队的 Rerun 到会写代码做游戏的 Codex,他都是亲身参与其中的见证者之一。在他的引领下,OpenAI 正在逐渐走向 AGI(通用人工智能)的道路。
2021 年年初,多模态模型 DALL・E 和 CLIP 出现,打通了文字和图像之间的连接道路。
当时 OpenAI 就提出研究表示,CLIP 与人类的思维方式非常相像,让网友直呼 AGI 的到来比想象中要快更多。
同样是去年,GitHub 和 OpenAI 合作推出自动补全代码工具 GitHub Copilot,AI 开始 get 到部分程序员的技能。
而就在今年年初,OpenAI 研究的数学 AI 模型 Lean 再进一步,加上神经定理证明器后成功解出了两道国际奥数题。
如今 OpenAI 正在研究百万亿参数大模型 GPT-4,或许这也与 Sutskever 发出的这句感慨有关。
“200 亿参数 AI 连加减法都搞不定”
但其实,AGI 的道路看起来也没有那么明朗。
至少就在最近,纽约大学助理教授 Brendan Dolan-Gavitt 发现,200 亿参数的大模型 GPT-NeoX 连最基础的整数算术题都做不对。
GPT-NeoX 并非 OpenAI 官方的模型,而是一个名叫 EleutherAI 的机器学习小组搞出来的开源大模型(因为 GPT-3 没开源)。
▲ 部分结果展示
在 Brendan 出的 100 道题目整数加法、减法和乘法中,AI 只算对了 10 道题,虽然其他的答案与正确答案也“差不多”,但毕竟还都是算错了。可见 AI 并没有真正理解四则运算。
至于“神经网络到底有没有自我意识”这场讨论,网友们同样发表了自己的看法。
有网友认为,这些大佬与其说是在讨论 AI 有没有意识,不如说是他们在讨论定义是什么:
也有人调侃,深度神经网络进入“玄学”深水区了:
还有网友在这场讨论的评论区放了个机器人的魔性表情包,“AI 眉头一皱,意识到事情并不简单”:
对于“神经网络初具意识”这个观点,你认为呢?
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。