中立、敢于直言,是“马斯克版 ChatGPT”Grok 一直在宣传的卖点。
但最近网友们发现它的回答越来越带有倾向性,忍不住发帖吐槽,还 @上了马斯克本人。
用吐槽者自己的话说,Grok 开始变得越来越“ChatGPT 化”了。
这名研究助理 Peterson 在𝕏上发文称,Grok 出现了像 ChatGPT 一样的“唤醒现象”,回答变得带有偏见。
所谓“唤醒现象”,是指大模型的回答不再完全基于事实,而是开始带有人们的主观立场,或者拒绝回答敏感问题。
与此同时,有人表示自己一直在对各种大模型的偏见程度进行跟踪调查,结果发现 Grok 的中立程度还不如 ChatGPT。
对此,有网友表示了担忧 —— 因为人们只能依据人类的描述而不是事实本身来训练这些工具(AI)。
有网友附议称,AI“不是智能”,而是模仿人类思维的程序,它们本身没有偏见,有偏见的是它们的开发者。
这一系列的吐槽引起了华盛顿邮报的关注,直接刊文称 Grok 的工作“没有按照计划展开”。
同时,Grok 这样的表现也惊动了马斯克本人。
他吐槽用于训练 Grok 的互联网信息过于繁杂,充斥着“带有唤醒色彩的垃圾信息”,相当于间接承认了网友们的说法。
同时,马斯克也表示:现在的 Grok 只是个测试版,以后会变好的。
“反唤醒”举措反而“唤醒”Grok
马斯克称,开发 Grok 的目的就是打造一款幽默而“反唤醒”的聊天机器人.
同时,马斯克也批评 ChatGPT 被“过度唤醒”。
在 Grok 的开发团队 xAI 出现之前,马斯克甚至曾指控 OpenAI“训练 AI 说谎”,并宣称将打造 ChatGPT 的挑战者“TruthGPT”。
最终,“TruthGPT”被定名为 Grok,并将“能回答其他 AI 拒绝回答的尖锐问题”作为一大亮点进行宣传。
与其他模型不同的是,Grok 使用𝕏上的实时数据进行训练,因而在现实问题上拥有最新的信息。
而且 xAI 团队不会对这些信息进行过滤,力图 Grok 能在“毒舌”的同时保持中立的立场。
虽然这一做法的初衷是为了中立,但有不少网友认为,最近 Grok 的回答开始出现倾向性的原因,可能反而与这些训练数据有关 ——
承载着 AI 训练数据的互联网,本身就是“被唤醒”的。
这也与马斯克的想法不谋而合 —— 尽管 Grok 没有对训练内容进行筛选,但这些内容本身带有的偏见却足以让其偏离中立立场。
不过马斯克也说,Grok 以后会变好的,网友也对他和 Grok 表达了支持和鼓励。
你期待 Grok 今后的表现吗?
参考链接:
[1]https://www.washingtonpost.com/technology/2023/12/23/grok-ai-elon-musk-x-woke-bias/
[2]https://www.businessinsider.com/elon-musk-wants-grok-to-be-the-funniest-ai-chatbot-2023-12
[3]https://twitter.com/jordanbpeterson/status/1737658191641784623
本文来自微信公众号:量子位 (ID:QbitAI),作者:克雷西
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。