IT之家 12 月 30 日消息,Meta 首席科学家、图灵奖得主杨立昆(IT之家注:Yann LeCun,法国人)在 29 日的“Into the Impossible”播客节目中谈到了自己对通用人工智能的看法。
他表示,目前 AI 的负面影响被过度放大,其能力目前仍非常有限。“在最乐观的情况下,AGI 的实现至少尚需 5-6 年。”当前社会对 AI 普遍担忧,甚至不乏一些关于 AI“可能导致的末日”有关观点,杨立昆认为其忽视了 AI 的实际发展状况和潜在的积极影响。
他表示,目前 AI 在理解和操作物理世界方面的能力仍非常有限,因为其主要通过文本数据进行训练,缺乏对物理世界直观理解的能力,无法像人类或动物去与环境自然互动。“譬如,一个 10 岁的孩子或者一只猫都能通过‘直观物理(intuitive physics)’来理解如何与物理世界互动,像是规划跳跃轨迹或理解物体的运动。而目前的 AI 系统,尚不具备这些能力。”
目前业界对人工智能乃至 AGI 的看法已是众说纷纭,部分观点如下:
微软 AI CEO 穆斯塔法・苏莱曼:当前的硬件无法实现 AGI,在未来两到五代硬件中实现是可能的,但我不认为两年内成功的概率很高。根据硬件开发周期,目前每代硬件需要 18 到 24 个月,所以五代可能意味着十年。当前业界对 AGI 的关注有些偏离实际:“与其沉迷于奇点或超级智能,我更专注于开发对人类有实际帮助的 AI 系统。这些 AI 应该为用户服务,成为其团队的一员,而非追求遥不可及的理论目标。”
OpenAI CEO 阿尔特曼:到 2025 年,我们可能会首次见到具备“通用人工智能”(AGI)能力的系统。这类系统可以像人类一样完成复杂任务,甚至能运用多种工具来解决问题。“或许在 2025 年,我们会看到一些 AGI 系统,人们会惊叹:‘哇!真是超乎我的想象。’”
2024 诺贝尔物理学奖获得者、“AI 教父”辛顿:“多年来,我越来越认为 AI 是一种超越人类的高级智能。正因如此,我们需要认真思考一个问题:如果 AI 拥有超越人类的智慧,甚至有能力控制我们,这对人类社会意味着什么。这并非科幻小说,而是切实的风险。”他本月底在 BBC 的一档节目中表示,AI 在未来三十年内导致人类灭亡的概率有 10% 到 20%,并警告该技术的变化速度“比预期快得多”。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。