大模型竞技场再被锤!Llama4私下测试27个版本,只取最佳成绩

大模型竞技场的可信度,再次被锤。

最近一篇名为《排行榜幻觉》(The Leaderboard Illusion)的论文在学术圈引发关注。

大模型竞技场再被锤!Llama4私下测试27个版本,只取最佳成绩

它指出,如今被视为LLM领域首选排行榜的Chatbot Arena,存在诸多系统问题。比如:

  • 少数大厂可以私下测试多个模型版本,Llama4在发布前甚至测了27个版本,然后只公开最佳表现。
  • 数据访问不平等,专有模型获得的用户反馈数据显着多于开源模型。
  • 使用Arena数据训练,可提升模型性能高达112%
  • 205个模型被悄悄静默弃用,远超过官方列出的47个。

大神卡帕西也站出来表示,他个人也察觉出了一些异样。

大模型竞技场再被锤!Llama4私下测试27个版本,只取最佳成绩

对于最新质疑,大模型竞技场官方Lmrena.ai已经给出回应:

  • 确实帮助厂商进行测试,最后发布最受欢迎的版本;
  • 但这不代表竞技场有偏见,排行榜反映数百万人类的个人真实偏好。

大模型竞技场再被锤!Llama4私下测试27个版本,只取最佳成绩

快速刷榜不符合模型进步实际情况

具体来看这项研究,它收集了243个模型的200+万场竞技场battle,并结合私人真实测试,通过模拟实验确定了不同情况下对模型排名的影响。

大模型竞技场再被锤!Llama4私下测试27个版本,只取最佳成绩

主要挖掘出了4方面问题。

大模型竞技场再被锤!Llama4私下测试27个版本,只取最佳成绩

第一,私人测试和有选择性的结果报告。

少数大模型厂商(如Meta、Google、Amazon)被允许私下测试多个模型变体,并只公开最佳表现的版本。

比如,Meta在Llama 4发布前曾私下测试27个变体,加上多模态、代码等榜单,Meta可能一共测试过43个变体。

大模型竞技场再被锤!Llama4私下测试27个版本,只取最佳成绩

这种“最佳N选1”策略导致排名膨胀。

例如,当测试5个变体时,期望分数增加了约20分;当测试20个变体时,增加了约40分;当测试50个变体时,增加了约50分。

大模型竞技场再被锤!Llama4私下测试27个版本,只取最佳成绩

研究团队认为,当多个大模型厂商采用这种策略时,他们实际上是在相互竞争各自变体分布的最大值,而非真实的模型能力

这种排行榜的快速变化不太可能反映真实的技术进步,因为开发和完善一个全新的基础模型通常需要数月时间。

相反,这很可能是多个大模型厂商同时使用“最佳N选1”策略的结果,每个提供商都试图优化自己变体池中的最大值。

此外,团队还发现大模型厂商可以撤回表现不好的模型。

大模型竞技场再被锤!Llama4私下测试27个版本,只取最佳成绩

第二,数据访问不平等。专有模型获得的用户反馈数据显着多于开源模型。

大模型竞技场再被锤!Llama4私下测试27个版本,只取最佳成绩

Google和OpenAI分别获得了约19.2%和20.4%的所有测试数据,而全部83个开放权重模型仅获得约29.7%的数据。

大模型竞技场再被锤!Llama4私下测试27个版本,只取最佳成绩

第三,大模型厂商使用竞技场数据进行训练,排名可以显着提升。

第四,研究发现,许多模型被”静默弃用”(减少采样率至接近0%)。

在243个公开模型中,有205个被静默弃用,远超过官方列出的47个。这种做法特别影响开源和开放权重模型,会导致排名不可靠。

大模型竞技场再被锤!Llama4私下测试27个版本,只取最佳成绩

在提出问题后,研究团队还给出了5点改进建议:

  • 禁止提交后撤回分数
  • 限制每个提供商的非正式模型数量
  • 公平应用模型弃用政策,所有模型一视同仁
  • 实施公平采样方法
  • 提高模型弃用透明度,即时通知被淘汰模型

这项研究由Cohere团队、普林斯顿大学、斯坦福大学等机构研究人员共同提出。

其中Cohere也是一家大模型厂商,由Transformer作者Aidan Gomez等人创办,推出了Command R+系列模型。

“竞技场不应该是唯一基准参考”

大模型竞技场诞生2年来,因为机制的特殊性,其参考价值越来越高,大厂发模型也必来这里打榜,甚至是将未发布模型提前在此预热造势。

它最大的优势在于基于人类偏好评估,用户可以在同一平台上同时运行多个聊天机器人模型,如GPT-4、ChatGPT-3.5等,并针对相同的问题或任务进行比较分析,可以更直观感受不同模型的差异。

最近一段时间,由于Llama4刷榜风波,给竞技场的可信度也造成了一定影响。

大模型竞技场再被锤!Llama4私下测试27个版本,只取最佳成绩

对于这篇质疑论文,官方现在已做出回应。反驳了一些问题:

  • LMArena模拟的缺陷:图7/8中的模拟存在问题。这就像说:NBA球员的平均三分命中率是35%。斯蒂芬·库里拥有NBA球员最高的三分命中率42%。这不公平,因为他来自NBA球员的分布,而所有球员都有相同的潜在平均水平。
  • 数据不实:文章中的许多数据并不反映现实:请参阅几天前发布的博客了解来自不同提供商测试模型数量的实际统计数据。例如,开放模型占比为40%,而非文章声称的8.8%!
  • 112%性能提升的误导性说法:这一说法基于LLM评判基准而非竞技场中的实际人类评估。
  • 政策并非“不透明”:我们设计并公开分享了政策,且这一政策已存在一年多。
  • 模型提供商并非只选择“最佳分数披露”:任何列在公共排行榜上的模型都必须是向所有人开放且有长期支持计划的生产模型。我们会继续使用新数据对模型进行至少一个月的测试。这些要点一直在我们的政策中明确说明。
  • 展示非公开发布模型的分数毫无意义:对于通过API或开放权重不公开可用的预发布模型显示分数没有意义,因为社区无法使用这些模型或自行测试。这会违反我们一年多前就制定的政策。我们制定该政策正是为了明确这一规则:如果模型在排行榜上,它应该可供使用。
  • 模型移除不平等或不透明的说法不实:排行榜旨在反映社区兴趣,对最佳AI模型进行排名。我们也会淘汰不再向公众开放的模型,这些标准在我们与社区进行私人测试的整个期间都已在政策中公开说明。

至于情况到底如何,可能还要等子弹飞一会儿。

不过这倒是也给AI社区提了个醒,或许不能只参考一个榜单了。

卡帕西就给出了一个备选项:OpenRouter。

OpenRouter可以提供一个统一API接口来访问使用不同模型,而且更加关注实际使用案例。

[1]https://arxiv.org/abs/2504.20879
[2]https://x.com/karpathy/status/1917546757929722115
[3]https://x.com/lmarena_ai/status/1917492084359192890

主题测试文章,只做测试使用。发布者:人脑网,转转请注明出处:https://www.rennao.com.cn/10488.html

(0)
人脑网的头像人脑网
上一篇 2025年5月2日 下午3:27
下一篇 2025年5月2日 下午3:28

相关推荐

  • 整整157页,比尔盖茨亲自公开微软起家的源代码:Altair Basic

    一段时隔整整50年的源代码,更是让微软这家科技巨头起家的源代码,正式被公开了—— Altair Basic,整整157页,由比尔盖茨亲自撰文发布。 在文章的开头,比尔盖茨对于这段代码做了这样的高度总结: 毕竟涉及Basic这门古早编程语言,以及个人计算机的发展源头,网友们在看到比尔盖茨的分享之后,也是感慨不已。 有人这样点评到: 也有与现在AI大模型结合的感…

    2025年4月6日
    4600
  • DeepSeek新数学模型刷爆记录!7B小模型发现671B模型不会的新技能

    DeepSeek放大招!新模型专注数学定理证明,大幅刷新多项高难基准测试。 在普特南测试上,新模型DeepSeek-Prover-V2直接把记录刷新到49道。 目前的第一名在657道题中只做出10道题,为Kimi与AIME2024冠军团队Numina合作成果Kimina-Prover。 而未针对定理证明优化的DeepSeek-R1只做出1道。 让还没发布的R…

    2025年5月1日
    1800
  • LIama 4发布重夺开源第一!DeepSeek同等代码能力但参数减一半

    AI不过周末,硅谷也是如此。 大周日的,Llama家族上新,一群LIama 4就这么突然发布了。 这是Meta首个基于MoE架构模型系列,目前共有三个款: Llama 4 Scout、Llama 4 Maverick、Llama 4 Behemoth。 最后一个尚未推出,只是预告,但Meta已经毫不避讳地称前两者是“我们迄今为止最先进的型号,也是同类产品中最…

    2025年4月6日
    3200
  • DeepSeek精度效率双提升,华为信工所提出思维链“提前退出”机制

    长思维链让大模型具备了推理能力,但如果过度思考,就有可能成为负担。 华为联合中科院信工所提出了一种新的模式,让大模型提前终止思考来避免这一问题。 利用这种方法,无需额外训练,就可以让大模型的精度和效率同时提升 这种方式名为DEER,也就是动态提前退出推理(Dynamic Early Exit in Reasoning)的简称。 其核心在于找到推理信息质量下降…

    2025年5月12日
    1100
  • o3/o4-mini幻觉暴增2-3倍!OpenAI官方承认暂无法解释原因

    OpenAI新模型发布后,大家体感都幻觉更多了。 甚至有人测试后发出预警:使用它辅助编程会很危险。 具体来说,它经常捏造从未运行过的代码返回结果,在被质问时找理由狡辩,甚至还会说是用户的错。 当大家带着疑问仔细阅读System Card,发现OpenAI官方也承认了这个问题,与o1相比o3幻觉率是两倍,o4-mini更是达到3倍。 并且OpenAI只是说“需…

    2025年4月21日
    3800

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

联系我们

400-800-8888

在线咨询: QQ交谈

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注微信