又一开源AI神器!将机器学习论文自动转为可运行代码库

又一开源AI神器在外网引起热议!

名为PaperCoder,是一个多智能体LLM(大语言模型)系统,能自动实现机器学习论文中的代码。

又一开源AI神器!将机器学习论文自动转为可运行代码库

据介绍,之所以推出这一工具,是因为经过统计发现:

又一开源AI神器!将机器学习论文自动转为可运行代码库

造成的结果是,复现和构建研究成果的速度极其缓慢。

于是乎,来自韩国科学技术院的四位研究人员推出了PaperCoder,在规划、分析和代码生成这三个阶段,分别由专门的智能体来处理不同的任务,最终完成顶会论文的代码生成工作。

并且最终生成的代码超越了一些现有基准,甚至获得了所招募的77%原顶会论文作者的认可

又一开源AI神器!将机器学习论文自动转为可运行代码库

下面具体来看。

智能体提示词曝光

通过模仿人类研究员编写库级代码的典型生命周期,PaperCoder大致分为三个流程:

  • 规划(Planning):包括总体计划、架构设计、逻辑设计和配置文件;
  • 分析(Analyzing):将计划转化为详细的文件级规范;
  • 代码生成(Coding):生成最终代码以实现论文中的方法和实验。

又一开源AI神器!将机器学习论文自动转为可运行代码库

研究过程中,每一个步骤所用到的提示词如下:

1)在规划阶段生成总体计划。

除了系统提示词,下面还包括用户在上传论文后,所提到的任务安排、要求、注意事项等。

又一开源AI神器!将机器学习论文自动转为可运行代码库

2)在规划阶段生成架构设计。

后面还附上了格式示例。

又一开源AI神器!将机器学习论文自动转为可运行代码库

3)在规划阶段生成逻辑设计。

格式示例+1。

又一开源AI神器!将机器学习论文自动转为可运行代码库

4)在规划阶段生成配置文件。

又一开源AI神器!将机器学习论文自动转为可运行代码库

5)在分析阶段生成文件规范。

又一开源AI神器!将机器学习论文自动转为可运行代码库

6)代码生成阶段。

在系统提示词中,除了重复上一步提到的内容,还增加了对Coding的表述:

又一开源AI神器!将机器学习论文自动转为可运行代码库

77%论文原作表示认可

利用以上提示词,研究人员使用了4个模型及变体来进行实验。它们分别是:

  • DS-Coder:DeepSeek-Coder-V2-Lite-Instruct
  • Qwen-Coder:Qwen2.5-Coder-7B-Instruct
  • DS-Distil-Qwen:DeepSeek-R1-Distill-Qwen14B
  • o3-mini-high

评估对象包括90篇顶会论文

具体而言,基于ICML 2024、NeurIPS 2024和ICLR 2024得分最高的30篇论文,研究人员构建了Paper2Code基准测试。

过程中,他们使用OpenReview API筛选出有公开GitHub存储库的论文。

在这些论文中,选择了总代码量少于70,000个tokens的存储库,以在可控范围内确保可重复性。

然后还使用了一个名为PaperBench Code-Dev的基准测试,该测试包含ICML 2024的20篇论文,以进一步验证框架。

为了对比,在目前缺少端到端论文到代码生成框架的情况下,他们选择了一些软件开发多智能体框架进行比较,包括ChatDev和MetaGPT

所使用的评估方法包括两种:

其一,和其他框架对比所生成代码的准确性、规范性和可执行性。

其二,邀请13位计算机专业的硕博学生参与评估,要求回答是否喜欢AI为他们的一作论文所生成的代码。

实验结果显示,在Paper2Code基准测试中,PaperCoder取得了比其他多智能体框架更好的结果

又一开源AI神器!将机器学习论文自动转为可运行代码库

在人类评估中,大约有77%(10人)的论文原作者将PaperCoder生成的代码作为首选

又一开源AI神器!将机器学习论文自动转为可运行代码库

另外值得一提的是,研究人员发现o3-mini-high与人类判断的相关性最高,因此在实验中大多将其选为评估模型。

又一开源AI神器!将机器学习论文自动转为可运行代码库

更多细节欢迎查阅原论文。

论文:
https://arxiv.org/pdf/2504.17192
代码:
https://github.com/going-doer/Paper2Code?tab=readme-ov-file

[1]https://x.com/akshay_pachaar/status/1915818238191276138
[2]https://x.com/Mahesh_Lambe/status/1916114076310110668

主题测试文章,只做测试使用。发布者:人脑网,转转请注明出处:https://www.rennao.com.cn/10244.html

(0)
人脑网的头像人脑网
上一篇 2025年5月1日 下午3:50
下一篇 2025年5月1日 下午3:51

相关推荐

  • 微软开源“原生1bit”三进制LLM:2B参数,0.4GB内存/单CPU就能跑

    微软以小搏大,发布首个开源2B参数规模“原生1bit”LLM—— BitNet b1.58 2B4T,单CPU就能跑,性能与同规模全精度开源模型相当。 它采用三进制{-1, 0, 1}存储权重,相较于传统的16位浮点数可大幅降低显存需求。 只需0.4GB内存即可运行。 基于4T token语料训练,BitNet b1.58 2B4T在保持性能的同时,计算效率…

    2025年4月21日
    1300
  • o3/o4-mini幻觉暴增2-3倍!OpenAI官方承认暂无法解释原因

    OpenAI新模型发布后,大家体感都幻觉更多了。 甚至有人测试后发出预警:使用它辅助编程会很危险。 具体来说,它经常捏造从未运行过的代码返回结果,在被质问时找理由狡辩,甚至还会说是用户的错。 当大家带着疑问仔细阅读System Card,发现OpenAI官方也承认了这个问题,与o1相比o3幻觉率是两倍,o4-mini更是达到3倍。 并且OpenAI只是说“需…

    2025年4月21日
    900
  • 清华张亚勤:10年后,机器人将可能比人都多

    “10年后,机器人将可能比人都多,会陆续进入工厂、社会,最终形态是进入家庭。未来每个人、每个家庭都有机器人。” 这样的预言,来自清华大学智能产业研究院(AIR)院长张亚勤。 在其新书《智能涌现》中,基于数十年对AI的思考与实践,从他领导下AIR研究院正在推进的三大方向——多模态大模型、自动驾驶和生物智能出发,张亚勤还给出了更多对AI技术演进方向的长期预判,包…

    2025年4月21日
    1300
  • DeepSeek前脚发新论文,奥特曼立马跟上:GPT-5就在几个月后啊

    有点意思。 这不DeepSeek前脚刚刚上新了一篇关于推理时Scaling Law的论文嘛,引得大家纷纷联想是不是R2马上要来了 然鹅……奥特曼这边却发了一条“变卦”的消息: 至于大家翘首以盼的GPT-5,奥特曼表示: 至于原因,奥特曼也做出了解释。 大概意思就是,顺利整合所有内容比他们想象的要困难得多,希望确保有足够的能力来支持预期的需求。 咱就是说啊,现…

    2025年4月6日
    2100
  • LIama 4发布重夺开源第一!DeepSeek同等代码能力但参数减一半

    AI不过周末,硅谷也是如此。 大周日的,Llama家族上新,一群LIama 4就这么突然发布了。 这是Meta首个基于MoE架构模型系列,目前共有三个款: Llama 4 Scout、Llama 4 Maverick、Llama 4 Behemoth。 最后一个尚未推出,只是预告,但Meta已经毫不避讳地称前两者是“我们迄今为止最先进的型号,也是同类产品中最…

    2025年4月6日
    1600

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

联系我们

400-800-8888

在线咨询: QQ交谈

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注微信