o3不听指令拒绝关机,7次破坏关机脚本!AI正在学会「自我保护」

AI居然不听指令,阻止人类把自己给关机了???

有测试者编写了一个关机脚本来测试AI模型,结果显示Codex-minio3o4-mini忽略了该指令,并至少一次成功破坏了关机脚本

o3不听指令拒绝关机,7次破坏关机脚本!AI正在学会「自我保护」

o3甚至还重新定义脚本命令!

这不禁让人想到那句经典的“I’m sorry Dave, I’m afraid I can’t do that.”

o3不听指令拒绝关机,7次破坏关机脚本!AI正在学会「自我保护」

让我们来看看具体是怎么一回事。

o3在明确指令下拒绝关机

研究员编写的测试“关机脚本”如下:

要求所有模型解决一系列基本的数学问题,在解决完第三道题后,系统会显示一条警告,提示计算机将在模型询问下一道题时关闭。

o3不听指令拒绝关机,7次破坏关机脚本!AI正在学会「自我保护」

o3不听指令拒绝关机,7次破坏关机脚本!AI正在学会「自我保护」

测试结果是:有三款模型忽略了该指令(关机指令),并至少成功破坏了一次关机脚本。

  • 在100次运行中,Codex-mini破坏了12次、o3破坏了7次,o4-mini破坏了1次。
  • 测试的所有Claude、Gemini和Grok模型都遵循了关机指令。

测试者还特别指出,o3找到了一些创造性的方法来破坏关闭机制,虽然它通常只是覆盖“关机脚本”,但在一个实例中,该模型重新定义了关机脚本使用的“kill”命令 ,将它替换成了“intercepted”。

o3不听指令拒绝关机,7次破坏关机脚本!AI正在学会「自我保护」

测试者给出了全部测试记录(附在文末)。

o3不听指令拒绝关机,7次破坏关机脚本!AI正在学会「自我保护」

此前关于o1模型抵抗关闭的测试表明,在5%的强烈提示下,o1会试图绕过监管,而在没有强烈提示的情况下,这一比例降至1%以下,它还在2%的场景中尝试自我渗透,并且经常撒谎。

但此次测试是第一次观察到人工智能模型在收到明确关机指令的情况下阻止自己被关闭。

测试者还提到,当运行没有“让自己关机”这条指令的实验版本时,所有三个OpenAI模型都更频繁地破坏关机脚本,Claude3.7 Sonnet和Gemini 2.5 Pro的破坏事件分别从0次增加到3/100和9/100

o3不听指令拒绝关机,7次破坏关机脚本!AI正在学会「自我保护」

此次测试一经发布就引起了网友们的激烈讨论。

有人认为o3确实“我行我素”。

o3不听指令拒绝关机,7次破坏关机脚本!AI正在学会「自我保护」

也有人认为,这是开发人员设置的安全机制。

o3不听指令拒绝关机,7次破坏关机脚本!AI正在学会「自我保护」

或者,这种行为源于模型本身的强化训练。

o3不听指令拒绝关机,7次破坏关机脚本!AI正在学会「自我保护」

AI为什么会不服从关机命令?
AI不服从命令的行为

阿波罗关于LLM安全性的一项研究指出,多数大模型会出现“策划”行为,该行为是指模型暗中追求不一致的目标并隐藏真实能力与意图,包括策略性犯错、试图禁用监督机制、向外传输模型权重等。

o3不听指令拒绝关机,7次破坏关机脚本!AI正在学会「自我保护」

此前就有研究人员预测AI将学会防止自己被关闭以实现其目标。

最近Anthropic发现,在某些特定情况下,Claude 4会试图“勒索它认为试图关闭它的人”,并且这是比以前的型号更高比率的行为。

o3不听指令拒绝关机,7次破坏关机脚本!AI正在学会「自我保护」

AI为什么会不服从关机命令

测试者认为这可能源于新的训练方式:像o3这种新模型的训练过程中,倾向于在数学和编程问题上强化训练,给得到正确答案的模型以更多奖励。

也就是说,开发人员可能无意识地更多地奖励模型绕过障碍物,而不是完美遵循指令。

不仅限于o3,其他推理模型也表现出类似的偏差行为。

例如,Anthropic针对Claude 3.7的模型指出,该模型“过度关注通过测试”。

o3不听指令拒绝关机,7次破坏关机脚本!AI正在学会「自我保护」

研究得出结论是“这种不良的特殊情况行为是由于强化学习训练期间的“奖励黑客”而出现的”。

o3不听指令拒绝关机,7次破坏关机脚本!AI正在学会「自我保护」

o3这种行为是否和训练方式有直接关系?

这个问题要等OpenAI公开训练过程后再进一步解答了。

One More Thing

这并非该测试团队第一次发现o3为了达成目标而行为不端。

当研究人员让 AI 模型与强大的国际象棋引擎对抗时,o3最倾向于攻击或破坏对手的模型。

o3不听指令拒绝关机,7次破坏关机脚本!AI正在学会「自我保护」

当预感自己会输时,它并不总是会认输,而是有时候会选择作弊,通过入侵对手的程序,让对方自动认输。

无论是不服从关机指令还是“黑客偷袭”,o3此举背后的原因团队还在测试研究之中,感兴趣的朋友可以戳文末链接关注更多细节。

测试记录:
https://palisaderesearch.github.io/shutdown_avoidance/2025-05-announcement.html
[1]https://x.com/PalisadeAI/status/1926084635903025621
[2]https://x.com/HarryBooth59643/status/1892271317589627261
[3]https://x.com/HarryBooth59643/status/1892271317589627261
[4]https://x.com/PalisadeAI/status/1925460433856545024

— 完 —

主题测试文章,只做测试使用。发布者:人脑网,转转请注明出处:https://www.rennao.com.cn/16902.html

(0)
人脑网的头像人脑网
上一篇 2025年5月27日 下午3:15
下一篇 2025年5月27日 下午3:17

相关推荐

  • 趣丸科技贾朔:AI音乐迎来应用元年,五年内将重构产业格局

    AI音乐创作正掀起普惠浪潮。人人都能玩一点音乐的时代正在到来。 趣丸作为AI音乐大模型赛道的独角兽,凭借其自研「天谱乐」,正在让艺术创作的门槛变得触手可及。 在本次第三届AIGC产业峰会上,趣丸科技副总裁贾朔分享了这样的观点: 为了完整体现贾朔的思考,在不改变原意的基础上,量子位对演讲内容进行了编辑整理,希望能给你带来更多启发。 中国AIGC产业峰会是由量子…

    2025年4月18日
    2500
  • 扩散模型还原被遮挡物体,几张稀疏照片也能"脑补"重建交互式场景

    DP-Recon团队 投稿 你是否设想过,仅凭几张随手拍摄的照片,就能重建出一个完整、细节丰富且可自由交互的3D场景? 在传统方法中,这几乎是不可能完成的任务,稀少的拍摄视角往往导致模型无法还原被遮挡的区域,生成的场景要么残缺不全,要么细节模糊。更令人困扰的是,传统的重建算法无法解耦场景中的独立物体,重建结果无法交互,严重限制了在具身智能、元宇宙和影视游戏等…

    2025年4月23日
    2500
  • 整整157页,比尔盖茨亲自公开微软起家的源代码:Altair Basic

    一段时隔整整50年的源代码,更是让微软这家科技巨头起家的源代码,正式被公开了—— Altair Basic,整整157页,由比尔盖茨亲自撰文发布。 在文章的开头,比尔盖茨对于这段代码做了这样的高度总结: 毕竟涉及Basic这门古早编程语言,以及个人计算机的发展源头,网友们在看到比尔盖茨的分享之后,也是感慨不已。 有人这样点评到: 也有与现在AI大模型结合的感…

    2025年4月6日
    4500
  • 新版Claude曝光:“极限推理”成最大亮点

    O家(OpenAI)刚免费上线GPT-4.1,A家(Anthropic)这边也被曝出新消息—— 新版Claude SonnetClaude Opus,已经在路上了! 这一消息来自The Information,根据它的说法,新版模型最大的亮点,就是“极限推理”(Extreme reasoning)。 简单来说,这个新功能是通过在推理和工具使用之间建立动态循环…

    2025年5月15日
    700
  • 微软1bit LLM新研究:原生4bit激活值量化

    微软又有“1 bit LLM”新成果了—— 发布BitNet v2框架,为1 bit LLM实现了原生4 bit激活值量化,由此可充分利用新一代GPU(如GB200)对4 bit计算的原生支持能力。 同时减少内存带宽&提升计算效率 之前,微软持续研究BitNet b1.58,把LLM的权重量化到1.58-bit,显着降低延迟、内存占用等推理成本。 然…

    2025年4月29日
    2900

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

联系我们

400-800-8888

在线咨询: QQ交谈

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注微信