OpenAI最新技术报告:GPT-4o变谄媚的原因万万没想到

GPT-4o更新后“变谄媚”?后续技术报告来了。

OpenAI一篇新鲜出炉的认错小作文,直接引来上百万网友围观。

OpenAI最新技术报告:GPT-4o变谄媚的原因万万没想到

CEO奥特曼也做足姿态,第一时间转发小作文并表示:

OpenAI最新技术报告:GPT-4o变谄媚的原因万万没想到

概括而言,最新报告提到,大约一周前的bug原来出在了“强化学习”身上——

一言以蔽之,OpenAI认为一些单独看可能对改进模型有益的举措,结合起来后却共同导致了模型变得“谄媚”。

而在看到这篇报告后,目前大多数网友的反应be like:

OpenAI最新技术报告:GPT-4o变谄媚的原因万万没想到

甚至有人表示,这算得上OpenAI过去几年里最详细的报告了。

OpenAI最新技术报告:GPT-4o变谄媚的原因万万没想到

具体咋回事儿?接下来一起吃瓜。

OpenAI最新技术报告:GPT-4o变谄媚的原因万万没想到

完整事件回顾

4月25日,OpenAI对GPT-4o进行了一次更新。

在官网的更新日志中,当时提到“其更加主动,能够更好地引导对话走向富有成效的结果”。

由于只留下这种模糊描述,网友们无奈之下只能自己测试去感受模型变化了。

结果这一试就发现了问题——GPT-4o变得“谄媚”了

具体表现在,即使只问“天为什么是蓝的?”这种问题,GPT-4o张口就是一堆彩虹屁(就是不说答案)

OpenAI最新技术报告:GPT-4o变谄媚的原因万万没想到

而且这不是个例,随着更多网友分享自己的同款经历,“GPT-4o变谄媚”这事儿迅速在网上引起热议。

事情发酵近一周后,OpenAI官方做出了第一次回应:

OpenAI最新技术报告:GPT-4o变谄媚的原因万万没想到

并且在这次处理中,OpenAI还初步分享了问题细节,原文大致如下:

当时奥特曼也出来表示,问题正在紧急修复中,接下来还会分享更完整的报告。

OpenAI最新技术报告:GPT-4o变谄媚的原因万万没想到

上线前已经发现模型“有些不对劲”

现在,奥特曼也算兑现之前的承诺了,一份更加完整的报告新鲜出炉。

OpenAI最新技术报告:GPT-4o变谄媚的原因万万没想到

除了一开头提到的背后原因,OpenAI还正面回应了:为什么在审核过程中没有发现问题?

事实上,据OpenAI自曝,当时已经有专家隐约感受到了模型的行为偏差,但内部A/B测试结果还不错。

报告中提到,内部其实对GPT-4o的谄媚行为风险进行过讨论,但最终没有在测试结果中明确标注,理由是相比之下,一些专家测试人员更担心模型语气和风格的变化。

也就是说,最终的内测结果只有专家的简单主观描述:

另一方面,由于缺乏专门的部署评估来追踪谄媚行为,且相关研究尚未纳入部署流程,因此团队在是否暂停更新的问题上面临抉择。

最终,在权衡专家的主观感受和更直接的A/B测试结果后,OpenAI选择了上线模型。

后来发生的事大家也都清楚了(doge)。

直到现在,GPT-4o仍在使用之前的版本,OpenAI还在继续找原因和解决方案。

OpenAI最新技术报告:GPT-4o变谄媚的原因万万没想到

不过OpenAI也表示,接下来会改进流程中的以下几个方面:

1、调整安全审查流程:将行为问题(如幻觉、欺骗、可靠性和个性)正式纳入审查标准,并根据定性信号阻止发布,即使定量指标表现良好;

2、引入“Alpha”测试阶段:在发布前增加一个可选的用户反馈阶段,以便提前发现问题;

3、重视抽样检查和交互式测试:在最终决策中更加重视这些测试,确保模型行为和一致性符合要求;

4、改进离线评估和A/B实验:快速提升这些评估的质量和效率;

5、加强模型行为原则的评估:完善模型规范,确保模型行为符合理想标准,并在未涵盖领域增加评估;

6、更主动地沟通:提前宣布更新内容,并在发行说明中详细说明更改和已知限制,以便用户全面了解模型的优缺点。

One More Thing

BTW,针对GPT-4o的“谄媚行为”,其实有不少网友提出通过修改系统提示词的方法来解决。

甚至OpenAI在第一次分享初步改进措施时,也提到了这一方案。

不过在OpenAI为应对这次危机而举办的问答活动中,其模型行为主管Joanne Jang却表示:

OpenAI最新技术报告:GPT-4o变谄媚的原因万万没想到

对此你怎么看?

主题测试文章,只做测试使用。发布者:人脑网,转转请注明出处:https://www.rennao.com.cn/10810.html

(0)
人脑网的头像人脑网
上一篇 2025年5月3日 下午3:30
下一篇 2025年5月3日 下午3:31

相关推荐

  • 清华&通院推出"绝对零"训练法,零外部数据大模型自我博弈解锁推理

    不用引入外部数据,通过自我博弈(Self-play)就能让预训练大模型学会推理? 来自清华、北京通用人工智能研究院和宾夕法尼亚州立大学的研究人员,提出了一种名为“绝对零”(Absolute Zero)的训练方式。 这种方法通过让大模型根据推理目标,自己生成并解决任务,便可以获得推理能力。 测试中,用“绝对零”训练出的模型,表现已经超过了用专家标注样本训练的模…

    2025年5月13日
    1600
  • 推理大模型1年内就会撞墙!FrontierMath团队最新研究

    以上结论来自Epoch AI。 这是一个专注于人工智能研究和基准测试的非营利组织,之前名动一时的FrontierMath基准测试(评估AI模型数学推理能力)就出自它家。 与之伴随而来的还有另一个消息: 如果推理模型保持「每3-5个月都以10倍速度增长」,那么推理训练所需的算力可能会大幅收敛。 就像DeepSeek-R1之于OpenAI o1-preview那…

    2025年5月13日
    1400
  • DeepSeek前脚发新论文,奥特曼立马跟上:GPT-5就在几个月后啊

    有点意思。 这不DeepSeek前脚刚刚上新了一篇关于推理时Scaling Law的论文嘛,引得大家纷纷联想是不是R2马上要来了 然鹅……奥特曼这边却发了一条“变卦”的消息: 至于大家翘首以盼的GPT-5,奥特曼表示: 至于原因,奥特曼也做出了解释。 大概意思就是,顺利整合所有内容比他们想象的要困难得多,希望确保有足够的能力来支持预期的需求。 咱就是说啊,现…

    2025年4月6日
    4500
  • 在交互设计过程中,你需要持续关注的五个问题

    认真对待交互设计过程中的每一个设计环节、每一个问题,是提高交互稿质量的基石。过程中的问题很多,需要我们持续关注并解决。

    2017年4月18日
    3302
  • 大模型竞技场再被锤!Llama4私下测试27个版本,只取最佳成绩

    大模型竞技场的可信度,再次被锤。 最近一篇名为《排行榜幻觉》(The Leaderboard Illusion)的论文在学术圈引发关注。 它指出,如今被视为LLM领域首选排行榜的Chatbot Arena,存在诸多系统问题。比如: 少数大厂可以私下测试多个模型版本,Llama4在发布前甚至测了27个版本,然后只公开最佳表现。 数据访问不平等,专有模型获得的用…

    2025年5月2日
    1400

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

联系我们

400-800-8888

在线咨询: QQ交谈

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注微信