Meta 最新基础模型 Llama 4 发布 36 小时后,评论区居然是这个画风:
失望,非常失望
不知道他们后训练怎么搞的,总之不太行
在 [各种测试] 中失败
……
还被做成表情包调侃,总结起来就是一个“差评如潮”。
具体来看,大家的抱怨主要集中在代码能力。
最直观的要数经典“氛围编程”小球反弹测试,小球直接穿过墙壁掉下去了。
反映在榜单上,成绩也相当割裂。
发布时的官方测评(LiveCodeBench)分数和在大模型竞技场表现明明都很不错。
但到了各种第三方基准测试中,情况大多直接逆转,排名末尾。
让人不由得怀疑,这个竞技场排名到底是数据过拟合,还是刷票了。
就在 Llama 4 即将发布前几天,Meta AI 研究主管 Joelle Pineau 在工作 8 年之后突然宣布离职,总之就是不太妙。
Llama 4 怎么了?
大模型关注者们火热实测吐槽之际,一则有关 Llama 4 的匿名爆料,突然引起轩然大波:
有网友称自己已向 Meta GenAI 部门提交辞职,并要求不要署名在 Llama 4 的技术报告上。
原贴发布在海外留学求职交流平台一亩三分地,在国内也引起很多讨论。
此爆料尚未得到证实,但有人搬出 Meta GenAI 负责人 Ahmad Al-Dahle 的帖子,至少能看出在 Llama 4 大模型竞技场里运行的是特殊版本模型。
还有 Meta 前员工借此话题贴出 2024 年 11 月的一项研究,指出从 Llama 1 开始数据泄露的问题就存在了。
也不只是编程能力一个方面有问题,在 EQBench 测评基准的的长文章写作榜中,Llama 4 系列也直接垫底。
榜单维护者_sqrkl 说明了具体情况。
测试非常简单,模型需要先完成一个短篇小说的头脑风暴、反思并修改写作计划,最终每轮写 1000 字,重复 8 轮以上。
由 Claude-Sonnet 3.7 来当裁判,先对每个章节单独打分,再对整个作品打分。
Llama 4 的低分表现在写到后面开始大段的内容重复,以及写作非常公式化。
对此结果,有一个猜想是之前的版权诉讼让 Meta 删除了网络和书籍数据,使用了更多的合成数据。
在这场诉讼中,许多作家发现自己的作品可能被用于 AI 训练,还到伦敦的 Meta 办公室附近发起抗议。
Llama 4 发布后的种种,让人联想到年初的匿名员工爆料,有网友表示当初只是随便看看,现在却开始相信了:
在这条爆料中,Deepseek V3 出来之后,训练中的 Llama4 就显得落后了,中层管理的薪水都比 DeepSeek V3 的训练成本都高,Meta 内部陷入恐慌模式。
让人不由得感叹,DeepSeek-R1 横空出世仅仅两个月时间,却像过了几辈子。
参考链接:
[1]https://www.reddit.com/r/LocalLLaMA/comments/1jt7hlc/metas_llama_4_fell_short/
[2]https://www.1point3acres.com/bbs/thread-1122600-1-1.html
[3]https://x.com/suchenzang/status/1909070231517143509
https://x.com/TheAhmadOsman/status/1908833792111906894
本文来自微信公众号:量子位(ID:QbitAI),作者:梦晨,原标题《Llama 4 发布 36 小时差评如潮!匿名员工爆料拒绝署名技术报告》
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。