首次解释LLM如何推理反思!新框架引入贝叶斯自适应强化学习

推理模型常常表现出类似自我反思的行为,但问题是——

这些行为是否真的能有效探索新策略呢?

对此,西北大学与Google、谷歌DeepMind团队质疑了传统强化学习与反思的关系,并提出了贝叶斯自适应的强化学习方法,首次解释了为什么、如何、以及何时应该反思并探索新策略

首次解释LLM如何推理反思!新框架引入贝叶斯自适应强化学习

通过对比分别使用传统强化学习和新方法训练的模型,研究人员发现:

在完成“模型需要在3步内输出三个连续相同字符”这一合成任务中,传统RL往往一条路走到黑,而新方法懂得排除无效假设,适时切换新策略。

并且在数学推理任务中,新方法在大部分基准和模型上都取得了更高的准确率,同时为解出题目所耗费的token数量更少。

更有意思的是,团队发现反思次数并非决定性能的唯一因素,一些基础模型往往出现很多徒劳的反思,并没有带来实质的信息增益。

下面详细展开。

贝叶斯自适应强化学习激发反思性探索

直观来说,测试时试错的步骤只有当能带来信息增益的情况下才有益,然而人们并没有在RL训练中告诉模型试错和反思带来的信息增益。

事实上,现有的基于马尔可夫假设的强化学习范式存在天然的局限——探索(exploration)仅发生在训练阶段,代理在部署(测试)时通常只会利用(exploit)训练中学到的确定性策略。

并且马尔可夫假设使得RL代理只根据当前状态做决策,历史信息(比如试错并回朔的思考过程)对策略的影响都被只压缩到当前状态表示中。

研究者指出,这种传统范式可能导致模型通过记忆训练解答就已经拿到高分,而不需要真正学会反思;模型内部思考的试错也并不能提供信息增益。

那测试时的反思性探索真的有用吗?如何才能学到有效的反思性探索策略呢?

首次解释LLM如何推理反思!新框架引入贝叶斯自适应强化学习

为了回答上述问题,研究者研究了与传统RL不同的贝叶斯自适应RL框架,简称BARL

它的核心思想是将LLM的反思性探索转化为贝叶斯自适应强化学习问题来处理,通过引入对环境不确定性的建模,让模型在推理过程中自适应地进行探索。

简单来说,BARL不再局限于传统RL的马尔可夫假设,而是考虑了MDP的不确定性(比如不同策略对一道题的有效性),于是需要把所有历史的观察(包括奖励反馈)纳入决策中。

这种框架天然地平衡了奖励最大化的利用和信息获取的探索。

具体而言,在BARL中,团队假设模型面对的是一个存在未知要素的任务,可以用一组假设的MDP(马尔可夫决策过程)来描述这些不确定性。

模型对每个假设MDP保持一个后验概率(belief),随着推理过程不断更新。

每当模型选择一个动作(如生成下一个思维步骤),都会根据观察到的结果更新对各个假设的信念。

BARL的目标策略并非针对单一确定环境优化,而是直接优化在后验分布下的期望累积回报。这意味着模型在决策时,会考虑“我这样做的收益是多少,同时这样的行动能多大程度减少不确定性?”。

首次解释LLM如何推理反思!新框架引入贝叶斯自适应强化学习

BARL明确地将测试时的表现纳入优化目标,通过最大化后验下的期望回报鼓励模型考虑未知情况。

模型明白只有主动探索才能在未知情境下保持高收益,因此反思是为了获取关键信息,避免一条路走错到底。

简而言之,BARL让模型意识到——

适时反思、多一种尝试可能带来更高的回报,这正是反思行为得以涌现的动机。

全新推理模型强化学习算法

研究者针对推理模型给出了BARL决策的数学形式,其中核心是如何计算后验的期望值:

首次解释LLM如何推理反思!新框架引入贝叶斯自适应强化学习

该公式针对多个候选答案(比如best-of-N里的N个答案)计算了预期回报加权求和,权重一方面是模型认为该候选答案的好坏,另一方面还包含了一个“校正项”——用来衡量实际观察结果与模型预期的偏差。

正是这个校正项充当了反思信号:如果某个策略原本被模型高度看好,但奖励反馈结果不尽如人意,那这个差异会迅速降低该假设的权重,提醒模型“也许该换一种思路了”,这正回答了模型应该何时进行反思和探索。

通过这种机制,BARL的决策公式指导模型在每个步骤判断是否需要反思、何时切换策略。

这也是BARL反思性决策的精髓——让模型基于贝叶斯后验来权衡“继续当前思路”还是“尝试新思路”

这种更新过程鼓励模型拼接和切换不同的推理策略,就像把多条可能的解题思路串联起来,并在中途发现某条思路行不通时迅速切换到另一条。

BARL通过端到端的RL优化自动实现了这一点,可谓以原则化的方式赋予了LLM在推理过程中的“何时反思、如何反思”的指南,达到了以一条长CoT线性化best-of-N的效果。

合成任务案例:更清楚的对比RL和BARL

为了直观展示BARL如何在测试时展现反思探索能力,作者设计了一个合成任务:模型需要在3步内输出三个连续相同的字符(0/1/2),才能获得奖励。

训练阶段,提示(prompt)字符只会是0或1,模型学会了对应输出000或111来拿到奖励;但是测试时,提示字符变为了2。

直觉上,训练时学到的确定性策略在遇到新字符时将不再有效,需要模型即时探索正确的输出模式。

首次解释LLM如何推理反思!新框架引入贝叶斯自适应强化学习

让两个模型来挑战这个任务:一个用传统马尔可夫RL训练,另一个用BARL方法训练。

Markovian RL很快就最大化了训练准确率,几乎将这些答案背了下来。

BARL在训练中同样学会了正确输出模式,但更有趣的是,它同时学会了根据不确定性来调整策略——这一点要等到测试才能看出差别。

测试阶段揭示了截然不同的行为。即当提示变为新字符2时,Markovian RL由于在训练中只记住了固定的输出(000/111)无法泛化,因此几乎总是答错,测试准确率接近于零。

而BARL代理则展现出“反思”能力。它会先尝试某个策略,如果初步尝试未获得奖励,就迅速反思切换,尝试另一种可能的序列。

下图形象说明了Markov RL和BARL在该合成任务中的决策差异——

Markov策略一条路走到黑,BARL策略则懂得排除无效假设,适时切换新策略。

首次解释LLM如何推理反思!新框架引入贝叶斯自适应强化学习

可以看到,左图中马尔可夫RL模型训练时成绩很快逼近100%但测试时几乎完全失败,中图的BARL模型则不仅训练表现提升,在测试时也取得了显着的高准确率。

值得注意的是,右图显示如果事先给予BARL一些关于任务结构的先验知识(例如“奖励模式就是某个字符重复三次”),它的收敛速度和最终成绩还会更好。

这说明了候选策略既要有多样性以覆盖未知情况,又要有合理的可信度以不至于无谓浪费精力。

首次解释LLM如何推理反思!新框架引入贝叶斯自适应强化学习

数学推理任务:性能全面提升,显着节省Token

研究人员还将BARL应用于LLM的数学推理领域,并比对了GRPO和“Progress”奖励基线(给予正确答案概率的分步奖励)

BARL在大部分基准和模型上都取得了更高的准确率。

首次解释LLM如何推理反思!新框架引入贝叶斯自适应强化学习

不仅如此,BARL还展现出更高的的效率优势

作者特别度量了每种方法为解出题目所耗费的token数量,结果发现在达到同等甚至更高准确率的情况下,BARL生成的内容要短得多。

首次解释LLM如何推理反思!新框架引入贝叶斯自适应强化学习

这意味着,BARL模型并不会为了“多反思几次”而付出冗长啰嗦的代价,反而因为每次反思都更有针对性、更有效。

作者还观察到另一个有趣的现象:反思次数本身并非决定性能的唯一因素。

基础模型往往出现很多徒劳的反思,并没有带来实质的信息增益。相比之下,BARL的反思行为更加“有目的性”。

首次解释LLM如何推理反思!新框架引入贝叶斯自适应强化学习

研究者计算了模型在每一步产生的思维链的贝叶斯价值,简单理解就是综合考虑了“这一步对最终求解有多大贡献”和“这一步带来了多少信息增益”的一个评分。

结果发现,BARL模型每一步动作的贝叶斯价值始终显着高于传统RL模型,说明它选的步骤要么就是对解题有帮助的(高回报),要么就是探查了新的可能路径(高信息增益),从不盲目浪费步骤。

而反观基础模型,尽管某些时候看似也输出了很多自我检查的内容,但由于没有有效利用信息更新,它这些“反思”步骤的价值评估很低,往往流于表面形式。

首次解释LLM如何推理反思!新框架引入贝叶斯自适应强化学习

最后,作者专门训练了一个长度受限的GRPO,人为限制它最多只能输出32个token的解题过程,强制模型倾向于不展开推理,直接给出最终答案。

可以发现模型的训练准确率最终能收敛到跟正常GRPO相似,而生成的过程长度却越来越短,几乎退化为直接背答案。

换言之,马尔可夫型RL在训练时确实可能通过牺牲思考过程而达到最优,但这样的策略一旦在测试遇到新题就会碰壁。这更加验证了传统RL并不能解释反思探索的好处,也不能包装自我反思的涌现。

最后,研究人员已经放出了训练代码和论文。

本文一作张申傲是美国西北大学二年级博士生,研究方向涵盖大语言模型与强化学习,尤其关注LLM的对齐,推理,以及智能体。其研究旨在构建能够主动获取信息并自我提升以实现超越人类水平的智能系统。

首次解释LLM如何推理反思!新框架引入贝叶斯自适应强化学习

训练代码:
https://github.com/shenao-zhang/BARL
论文:
https://arxiv.org/abs/2505.20561

— 完 —

主题测试文章,只做测试使用。发布者:人脑网,转转请注明出处:https://www.rennao.com.cn/18349.html

(0)
人脑网的头像人脑网
上一篇 2025年6月2日 下午4:28
下一篇 2025年6月2日 下午4:29

相关推荐

  • 波士顿动力机器人进厂打工现逆天操作!3D感知+实时追踪

    波士顿动力带机器人看世界,Altas重磅升级了! 现在,它具备3D空间感知实时物体追踪能力,可以自主执行更复杂的工业任务。 请看Altas在汽车工厂打工VCR: 视频链接:https://mp.weixin.qq.com/s/05nJ-EY5z4KVbdZxGr0s1w 小哥故意将汽车零部件丢在地上,只见它360°转动头部环顾四周,随后成功识别并将其放入正确…

    2025年5月30日
    900
  • 瘦身不降智!大模型训推效率提升30%,京东大模型开发计算新研究

    京东探索研究院关于大模型的最新研究,登上了Nature旗下期刊! 该项研究提出了一种在开放环境场景中训练、更新大模型,并与小模型协同部署的系统与方法。 它通过模型蒸馏、数据治理、训练优化与云边协同四大创新,这个项目将大模型推理效率平均提升30%,训练成本降低70%。 这个名为《Omniforce:以人为中心的、赋能大模型的、云边协同的自动机器学习系统》的项目…

    2025年5月21日
    600
  • 1/8成本比肩Claude 3.7,Mistral Medium 3来了

    用1/8成本比肩Claude 3.7,刚刚,“欧洲OpenAI”Mistral AI发布多模态新模型。 MistralMedium3,主打编程和多模态理解,且在性能和成本间进行了平衡。 官方称,在各类基准测试中,Mistral Medium 3性能达到或超越Claude Sonnet 3.7的90%,且成本大大降低。 Claude 3.7 Sonnet的价格…

    2025年5月8日
    1500
  • Claude团队打开大模型「脑回路」,开源LLM思维可视化工具来了

    Claude团队来搞开源了—— 推出“电路追踪(circuit tracing)工具,可以帮大伙儿读懂大模型的“脑回路”,追踪其思维过程。 该工具的核心在于生成归因图(attribution graphs),其作用类似于大脑的神经网络示意图,通过可视化模型内部超节点及其连接关系,呈现LLM处理信息的路径。 研究人员通过干预节点激活值,观察模型行为变化,从而验…

    2025年6月3日
    500
  • 123页Claude 4行为报告发布:人类干坏事,会被它反手一个举报

    坏了,人类做坏事,会被AI反手举报了。 刚刚发布的Claude 4被发现,它可能会自主判断用户行为,如果用户做的事情极其邪恶,且模型有对工具的访问权限,它可能就要通过邮件联系相关部门,把你锁出系统 这事儿,Anthropic团队负责模型对齐工作的一位老哥亲口说的。 除此之外,他们还发现Opus 4在某些条件下还会执行一些明显有害的请求。 甚至还会试图通过威胁…

    2025年5月23日
    1000

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

联系我们

400-800-8888

在线咨询: QQ交谈

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注微信