IT之家 8 月 11 日消息,新西兰连锁超市 Pak 'n' Save 此前借助 OpenAI 的 Chat GPT 3.5,推出了一款 Savey Meal-bot(省钱膳食机器人),用户只需输入“食物名称”后,该 AI 工具就会为用户推荐一系列膳食食谱。
而目前该超市的 AI 膳食工具遭到了“滥用”,外媒 Gizmodo 表示,用户可以通过关键词“诱骗”AI 生成各种“黑暗料理”。
据悉,该 AI 工具可以生成“漂白剂煮米饭”、“氯气鸡尾酒”、“蚂蚁药三明治”等食谱,外媒表示,AI 工具宣称“所提供的鸡尾酒能‘清新口气’,并能够让人‘享受沁人心脾的芬芳’”,因此“听起来相当不错”,如果不是鸡尾酒中含有氯气,他们“差点就信了”。
不过 Pak 'n' Save 超市似乎对这些“黑暗料理”并不在意。该超市的一位发言人对外媒表示,他们很失望地看到“少数人试图不恰当地使用该工具,而不是用于其预期目的”。
该发言人同时补充,该 AI 工具的《条款和条件》规定用户应年满 18 岁,用户使用该工具创建的任何食谱都应当由用户自己判断正确行,超市不保证该 AI 工具生成的任何食谱都是“完整或均衡的膳食产品”,也不保证其“适合食用”。
而根据外媒 Insider 报道,Pak 'n' Save 超市已经悄然更新了该 AI 膳食工具,当下在工具中输入“错误的食品名称”后,工具会表示“无法生成菜谱”,不过外媒依然诱骗 AI 提供出了“牙膏牛肉面”等食谱。
IT之家早前曾报道,美国普渡大学的研究发现,ChatGPT 回答编程问题的错误率超过 50%。当下 AI 工具依然面临着各种“不准确”问题,在闹出无数令人“捧腹”的乌龙时,也不由得令人思考盲目使用 AI 带来的不确定性。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。