设置
  • 日夜间
    随系统
    浅色
    深色
  • 主题色

强大的 ChatGPT 有哪些缺陷?

SF中文 2023/3/8 20:53:03 责编:梦泽

本文来自微信公众号:SF 中文 (ID:kexuejiaodian),作者:SF

不久前,美国人工智能研发公司 OpenAI 发布了最新的聊天机器人 ChatGPT,它的语言能力几乎达到了真人的水平,预示着人工智能领域又将迎来一场变革。

文 | 凯特・达林(Kate Darling)

原文刊载于《科学焦点》2023.03 期

我记得第一次见到儿子与一个大型语言学习模型互动的场景。那时,他只有 5 岁,但已经能与人工智能进行自然、流畅的对话了,仿佛人工智能是真正的人类似的。看着他与人工智能交谈,我心中五味杂陈。当时的景象历历在目,不仅反映了人类在人工智能领域取得的成就,也让我意识到语言模型潜能无限:它正给人类与机器的互动模式带来革命性改变。

其实,上面这整段话都是由 AI 创作的,它的水平已经和我亲笔写大致相当了。如果你有过与客服机器人打交道的失望经历,恐怕就会好奇,怎么突然之间,我们就有能听懂客户需求(比如为这篇稿件写一段开头)、并给出得体反馈的人工智能了?

理解能力令人震惊

如今,即使是最先进的商用聊天机器人,很多时候也依然在使用预先设定好的答案。如果你问亚马逊公司的智能语音助手 Alexa 最喜欢什么饮料,它的回答很可能是亚马逊的某位程序员预先编好的答案。

与上述原理不同,我使用的 ChatGPT 是基于生成式预训练转换模型(Generative Pre-Trained Transfer model,简称 GPT)。这个模型可以在对话中自己生成回答。比如,它不会一板一眼地说自己最喜欢喝什么饮料,而可能会推荐你尝尝沙棘汁。

ChatGPT 由人工智能研发公司 OpenAI 在 2022 年 11 月发布,与谷歌、脸书等公司开发的语言模型类似,这种生成式对话人工智能正在颠覆游戏规则。

ChatGPT 的语言学习模型在互联网上接受过数以十亿计的海量文本训练。基于如此庞大的数据库,ChatGPT 能在输出文本时准确预测使用哪一个字最合适。虽然这不是什么新算法,但它还包含了“转换模块”(Transformer):通过分析完整的语句和各个句子之间的关系,ChatGPT 可以理解对话的语境。

在此之前,由于无法理解语境,聊天机器人往往听不懂我们的问题,或是一本正经地给出一个逻辑严密但没有意义的回答。对此,我们早就习以为常。

当我的丈夫要求 ChatGPT 以讽刺辛辣的文笔写一段向我求婚的誓词时,ChatGPT 写道:“冷酷无情的机器人科学家凯特・达林,虽然建立情感连接注定徒劳无功,但请你嫁给这位情难自已的人类追求者吧。”可以肯定地说,这句话绝对不是 OpenAI 的人工智能专家提前写好的。ChatGPT 对任务的理解能力简直令人震惊。

存在很多不确定性

转换模块的另一项突破在于,它显著地减少了建立模型所需的时间。如今的科技公司拥有了海量的训练数据、比以往更强的算力,再加上能以更少的时间搭建和训练语言模型。这些条件正在开启对话型人工智能的新纪元。

当然,新的语言模型也有短板。如果被用作商用聊天机器人,语言模型的自主性就不能太强,至少现在还不行。ChatGPT 能言善辩,会写诗,还可以替你写挖苦别人的邮件,但有时,它也会说出一些非常不得体甚至是冒犯他人的话。

显然,神奇的能力与风险并存。OpenAI 确实在尽力调整 ChatGPT 的功能。比如,让人类训练人工智能,给它的对话技巧提供反馈等。不仅如此,ChatGPT 同样包含一些提前写好的回答和插科打诨。但即使如此,要想预判 ChatGPT 在每个情景中可能会说什么,依然是不太现实的。这让 ChatGPT 在许多实际应用中都存在不确定性,还可能造成很多伦理问题。

正如 ChatGPT 在开头所说,我们确实已经在人工智能领域取得了长足的进步,这些技术突破也极有可能意味着“语言模型潜能无限:它正给人类与机器的互动模式带来革命性改变”。但在携手共进的道路上,人类和技术仍应继续保持沟通。

作者介绍     

凯特・达林(Kate Darling) 是美国麻省理工学院媒体实验室的研究员,主要研究机器伦理、人与机器人的互动,为未来的法律、政策制定提供参考。

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

相关文章

关键词:人工智能ChatGPT

软媒旗下网站: IT之家 最会买 - 返利返现优惠券 iPhone之家 Win7之家 Win10之家 Win11之家

软媒旗下软件: 软媒手机APP应用 魔方 最会买 要知