OpenAI 一拳把谷歌干哑火,AI 的开源时代要结束了吗?
AI 在过去十多年的飞速发展,得益于高校、企业与个人开发者的通力合作,让人工智能领域内遍布开源的代码、数据及教程。
谷歌也一直是 AI 行业的领军者,发表的论文横跨自然语言处理、计算机视觉、强化学习等多个领域,为行业内贡献了诸如 Transformer, Bert, PaLM 等诸多基础模型与架构。
但 OpenAI 打破了游戏规则,不仅拿着 Transformer 开发出了 ChatGPT,还凭着初创公司的优势,如受法律、舆论的影响更少,无需透露训练数据、模型规模、架构等信息,甚至还挖走了不少谷歌等大厂的员工,打得谷歌是节节败退。
面对不讲武德的 OpenAI,谷歌也只能被动挨打。
据匿名人士提供的消息称,今年 2 月,Google AI 的掌门人 Jeff Dean 在会议中表示:
Google would take advantage of its own AI discoveries, sharing papers only after the lab work had been turned into products
谷歌将利用自己在人工智能方面的成果,只有在实验室成果转化为产品后,才会共享论文。
转向「防御状态」的谷歌或许寄希望于把同类 AI 公司全都熬走,更好地保护自己的核心搜索业务及股价。
但 AI 如果少了这些大公司的开源精神,转而走向垄断,人工智能领域还能出现之前的发展奇迹吗?
谷歌被偷家,只因「太负责」
对于谷歌这种数十亿用户体量的公司,即使是小规模的实验也可能会影响到数百万人,并遭受舆论的反噬,这也是谷歌迟迟不愿推出聊天机器人并坚守「负责任 AI」底线的原因。
2015 年,Google Photos 上线图像分类功能,将一名黑人错误分类为 Gorillas(大猩猩),谷歌立刻陷入公关危机,迅速道歉并整改。
谷歌整改的措施就是把 Gorillas 标签直接删了,甚至还删掉了贵宾犬(poodle),黑猩猩(chimpanzee),猴子(monkey)等类别。
结果就是图像分类器不会再把黑人识别为猩猩,但也识别不了真正的猩猩了。
尽管多年来谷歌一直在投入大量资金开发人工智能技术,但受限于神经网络的黑盒不可解释性,谷歌也无法完全保证投产后的可控性,需要更长时间的安全性测试,也就失去了先发优势。
今年 4 月,谷歌 CEO 劈柴哥(Sundar Pichai)在参加《60 分钟》节目中仍然明确表示,人们需要对人工智能保持谨慎,它可能对社会造成很大的危害,比如伪造图像和视频等。
如果谷歌选择「不那么负责」,势必会引起更多监管机构、人工智能研究者和商界领袖的关注。
但 DeepMind 联合创始人 Mustafa Suleyman 表示,其实并不是因为他们过于谨慎,而是因为他们不愿意破坏现有的收入流和商业模式,只有当存在真正的外部威胁时,他们才会开始觉醒。
而这个威胁,已经来了。
留给谷歌的时间不多了
自 2010 年起,谷歌就开始收购人工智能初创企业,并将相关技术逐步融入自家产品中。
2013 年,谷歌邀请深度学习先驱、图灵奖得主 Hinton 加盟(刚离职);一年后,谷歌还以 6.25 亿美元收购了初创公司 DeepMind
在被任命为谷歌首席执行官后不久,劈柴哥更是宣布谷歌将以「AI 优先」为基本策略,将人工智能技术整合到其所有产品中。
多年的深耕也让谷歌的人工智能研究团队取得了诸多突破性进展,但与此同时,一些规模较小的创业公司也在人工智能领域取得了一些成就。
OpenAI 成立的初衷是为了制衡大型科技公司对人工智能领域公司的收购垄断,并且凭借小公司的优势,OpenAI 受到的审查和监管更少,而且更有意愿快速将人工智能模型交付到普通用户手中。
所以人工智能的军备竞赛就在这种没有监管的情况下愈演愈烈,面对竞争,大型企业的「责任心」可能会逐渐减弱。
谷歌高层也不得不选择 DeepMind 所拥护的「人工智能技术匹配」、「超越人类智能」等通用人工智能概念的前景。
今年 4 月 21 日,劈柴哥宣布把原由 Jeff Dean 运营的谷歌大脑和此前收购的 DeepMind 合并,交由 DeepMind 联合创始人兼首席执行官 Demis Hassabis 负责,以加速谷歌在人工智能领域的进步。
Hassabis 表示,只需要几年时间,AI 水平可能就会比大多数人工智能专家预测的更接近人类智能的水平。
谷歌进入「战备状态」
根据外媒对 11 名谷歌现任和前任员工的采访,最近几个月,谷歌已对旗下人工智能业务进行了全面改革,主要目标是迅速推出产品,降低向小用户群推出实验性人工智能工具的门槛,在公平性等领域开发一套新的评估指标和优先级。
劈柴哥强调,谷歌尝试加快研发速度并不意味着偷工减料。
为了确保通用人工智能以负责任的方式发展,我们正在筹办一个新部门以建立更有能力的系统、更安全且更负责任。
前谷歌大脑人工智能研究员 Brian Kihoon Lee 在今年 1 月大规模裁员潮中被解雇了,他将这种转变描述为谷歌从「和平时期」向「战争时期」的转变,一旦竞争变激烈,一切都会变。在战时状态,竞争对手的市场份额增长也很关键。
谷歌发言人 Brian Gabriel 表示:在 2018 年,谷歌建立了内部管理结构和全面的审查流程,到目前为止已经在各个产品领域进行了数百次审查。谷歌将继续将该流程应用于面向外界的基于人工智能的技术,负责任的人工智能仍是公司的首要任务。
但决定人工智能产品何时准备上市的标准不断变化,也引发了员工的不安情绪,比如谷歌在决定发布 Bard 后,调低了实验性人工智能产品的测试分数标准,引起了内部员工的反对。
2023 年初,谷歌公布了由两个人工智能团队(Responsible Innovation 和 Responsible AI)围绕 Bard 设定的约 20 项政策,员工普遍认为这些规定相当明确且完善。
也有员工认为这些标准制定的更像是给外界表演看的,不如公开训练数据或是开源模型,用户能够更明确了解模型的能力。
发论文需审批
谷歌加速研发的决定对员工来说,喜忧参半。
喜的是,非科研岗位的员工们普遍持乐观态度,认为该决策可以帮助谷歌重回上风。
但对研究人员来说,在发表相关人工智能研究成果之前需要获得额外的批准,可能意味着研究人员将在快速发展的生成式人工智能领域错失首发机会。
也有一些人担心,谷歌可能会悄悄压下有争议的论文,比如 2020 年由谷歌的道德人工智能团队领导,Timnit Gebru 和 Margaret Mitchell 共同撰写的一项关于大型语言模型危害的研究。
过去一年间,许多顶尖的人工智能研究人员都被初创公司挖走了,部分原因在于谷歌对科研人员成果的不重视和过度审查。
一位前谷歌研究人员表示,获得论文批准可能需要高级研究员反复进行严格审查。谷歌承诺了很多科研人员让他们能够继续参与本领域更广泛的研究话题,出版限制可能会让迫使又一批研究人员出走。
AI 研发该降速?
谷歌加速发展之际,也有一些听起来不是那么和谐的声音,他们呼吁各大人工智能厂商放慢开发速度,并且认为这项技术的发展速度已经超出了发明者的预期。
深度学习先驱 Geoffrey Hinton 称超级智能人工智能存在逃脱人类控制的危险,于是离开了谷歌。
消费者也逐渐开始了解大型语言模型的风险和局限性,比如人工智能倾向于捏造事实等,而 ChatGPT 上的小字免责声明上并没有说清楚它的局限性。
基于 ChatGPT 的下游应用暴露出了更多问题,例如斯坦福大学教授 Percy Liang 曾经展开过一项研究,新必应提供的引用大概只有 70% 是正确的。
5 月 4 日,白宫邀请了谷歌、OpenAI、微软的首席执行官会面,商讨公众对 AI 技术的担忧,以及如何对 AI 进行监管。
美国总统拜登在邀请函中明确表示,AI 公司必须确保产品的安全性,然后才能向公众开放。
参考资料:
https://www.washingtonpost.com/technology/2023/05/04/google-ai-stop-sharing-research
本文来自微信公众号:新智元 (ID:AI_era)
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。