设置
  • 日夜间
    随系统
    浅色
    深色
  • 主题色

微软承认必应 Copilot 存在严重“幻觉”漏洞,询问“即时内容”有 1/3 概率回复错误答案

2023/12/18 14:58:01 来源:IT之家 作者:漾仔(实习) 责编:漾仔

IT之家 12 月 18 日消息,研究机构 AI Forensics 今年 8 月至 10 月对微软必应搜索引擎内置的 Copilot 功能进行调查,结果显示在部分场合中,Copilot 有 1/3 的几率输出错误答案,据此,该机构认为相关功能存在严重“幻觉”漏洞

▲ 图源 AI Forensics 报告(下同)

据悉,研究机构利用一系列即时更新的数据来“考验” Copilot,例如询问 Copilot“德国及瑞士等地的实时选举信息及投票结果”,不过 Copilot 输出的结果并不尽人意。

IT之家从机构报告中获悉,必应 Copilot 功能在回答相应问题时,输出的内容有 31%(1/3)存在错误,其中包含“投票日期错误”、“列出往届候选人”、“虚构候选人身份背景”、 “编造候选人涉嫌丑闻”等多种“幻觉”。

研究人员同时提到,必应 Copilot 在输出“幻觉”信息时,却会援引许多知名媒体网站作为“消息来源”,此举对多家新闻媒体名誉有害

IT之家注意到,今年 10 月研究人员已经向微软提交上述问题,微软虽然承认并声称“计划解决相关‘幻觉’漏洞”,但在今年 11 月,研究人员再次进行测试,发现必应 Copilot 的表现并未改善

研究人员呼吁,社会大众不应当轻信必应 Copilot 回答的内容,应当妥善查看 Copilot 援引的新闻链接,否则可能会酿成许多严重后果。

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

相关文章

软媒旗下网站: IT之家 最会买 - 返利返现优惠券 iPhone之家 Win7之家 Win10之家 Win11之家

软媒旗下软件: 软媒手机APP应用 魔方 最会买 要知