天文预测新SOTA!紫东太初&国家天文台联手攻克恒星耀发难题

还记得刘慈欣在《全频带阻塞干扰》中描绘的耀斑爆发吗?

现在科幻照进现实,人类踏出了理解耀斑的重要一步——预测。

天文预测新SOTA!紫东太初&国家天文台联手攻克恒星耀发难题

来自紫东太初中国科学院国家天文台的研究团队,联合开发了天文耀发预测大模型FLARE(Forecasting Light-curve-based Astronomical Records via features Ensemble)

该模型能精准预测恒星耀发事件,为天文学研究提供了全新的有力工具,也展示了AI for Science在天文学领域的巨大潜力。

相关研究论文已成功被人工智能领域国际顶级会议IJCAI 2025录用。

天文预测新SOTA!紫东太初&国家天文台联手攻克恒星耀发难题

以下是更多详细内容介绍。

恒星耀发从何而来

恒星耀发是恒星大气中磁场能量的快速释放过程,对于理解恒星结构、演化、磁活动以及探索系外宜居行星和外星生命意义重大。

然而,目前通过观测获得的耀发样本数量有限,难以满足全面深入的研究需求。

因此,准确预测恒星耀发时间成为天文学研究的重要任务,但此前这一领域一直缺乏相关研究成果。

与相对容易预测的太阳耀斑不同,恒星耀发预测主要依赖光变曲线

天文预测新SOTA!紫东太初&国家天文台联手攻克恒星耀发难题
恒星的光变曲线

光变曲线不仅常存在数据缺失问题,而且不同恒星、同一恒星在不同时期的光变曲线变化趋势差异极大,这些复杂因素给预测工作带来诸多挑战。

在此背景下,紫东太初研究团队与国家天文台联合开展研究。

他们发现,恒星的物理属性(如年龄、自转速度、质量等)以及历史耀发记录,与恒星耀发存在显着关联。

基于此,双方合作开发了FLARE模型

该模型通过独特的软提示模块(Soft Prompt Module)残差记录融合模块(Residual Record Fusion Module),有效整合了恒星物理属性和历史耀发记录,提升了光变曲线特征提取能力,进而提高了耀发预测的准确性。

FLARE模型架构解析

在模型架构方面,FLARE首先将光变曲线分解为趋势和残差成分,利用移动平均法去除数据缺失的影响,分别对其进行处理,并通过残差记录融合模块将历史耀发记录融入残差中,增强模型的稳健性。

天文预测新SOTA!紫东太初&国家天文台联手攻克恒星耀发难题
天文耀发预测大模型FLARE的整体结构图

对于恒星物理属性,软提示模块将属性名称和数值组织成文本结构,借鉴P-tuning方法,部分替换词向量为可训练参数,更好地保留了物理属性的意义,有助于区分不同恒星。

此外,研究团队采用预训练大模型,并利用低秩微调LoRA技术对模型进行微调,使其能够同时处理文本和光变曲线数据,最终通过多层感知器预测未来24小时内恒星耀发的概率。

模型性能实验

为验证FLARE模型的性能,研究人员使用7160颗恒星的高精度光变曲线数据进行实验。

他们将FLARE模型与多种基线模型对比,涵盖了基于时间序列表示学习的各类方法,如多层感知器(MLPs)循环神经网络(RNNs)卷积神经网络(CNNs)图神经网络(GNNs)Transformer,以及基于预训练语言大模型的时间序列分析方法。

天文预测新SOTA!紫东太初&国家天文台联手攻克恒星耀发难题
FLARE模型与多种基线模型的对比结果

实验结果显示,FLARE模型在准确率、F1值、召回率、精度等多项评估指标上表现优异,准确率超过70%,显着优于其他模型。

通过具体实例研究,FLARE模型展现出强大的适应性。

它能够根据不同恒星的光变曲线变化模式,准确预测耀发事件,即使是同一恒星不同变化模式的光变曲线,也能实现精准预测。

天文预测新SOTA!紫东太初&国家天文台联手攻克恒星耀发难题
FLARE模型对多个样本耀发预测结果

未来,随着研究的深入,FLARE模型有望在天文研究中发挥更大作用,助力科学家们探索更多宇宙奥秘。

论文链接:https://arxiv.org/abs/2502.18218

主题测试文章,只做测试使用。发布者:人脑网,转转请注明出处:https://www.rennao.com.cn/13314.html

(0)
人脑网的头像人脑网
上一篇 2025年5月14日 下午3:01
下一篇 2025年5月14日 下午3:02

相关推荐

  • 开源全能图像模型媲美GPT-4o!解决扩散模型误差累计问题

    OpenAI GPT-4o发布强大图片生成能力后,业界对大模型生图能力的探索向全模态方向倾斜,训练全模态模型成研发重点。 开源的MLLMs和扩散模型已经过大规模预训练,其从零开始训练统一任务,不如取长补短,将MLLMs的语言建模能力,与扩散模型的像素级图像建模能力,进行有机的结合。 基于这个思路,ModelScope团队提出可同时完成图像理解、生成和编辑的统…

    2025年5月12日
    1100
  • 华为云黄瑾:昇腾云CloudMatrix 384 超节点定义下一代AI基础设施

    5月16日,华为云AI峰会在北京召开,华为云副总裁黄瑾发表主题演讲,介绍了更多CloudMatrix 384 超节点技术优势与细节。他指出,随着大模型训练和推理对算力需求的爆炸式增长,传统计算架构已难以支撑AI技术的代际跃迁,超节点架构的诞生不仅是技术的突破,更是以工程化创新开辟AI产业的新路径。华为云CloudMatrix 384超节点具备MoE亲和、以网…

    2025年5月19日
    900
  • 大模型集体“挂科”!全新中文网页检索测试:GPT-4o准确率仅6.2%

    你以为大模型已经能轻松“上网冲浪”了? 新基准测试集BrowseComp-ZH直接打脸主流AI。 BrowseComp-ZH是一项由港科大(广州)、北大、浙大、阿里、字节跳动、NIO等机构联合发布的新基准测试集,让20多个中外主流大模型集体“挂科”: GPT-4o在测试中准确率仅6.2%;多数国产/国际模型准确率跌破10%;即便是目前表现最好的OpenAI …

    2025年5月6日
    1000
  • AI越聪明越不听话!新研究:最强推理模型指令遵循率仅50%

    如果面前有两个AI助手:一个很聪明但经常不守规矩,另一个很听话但不太聪明,你会怎么选? 最近,上海人工智能实验室与香港中文大学的研究团队发布了论文《Scaling Reasoning, Losing Control: Evaluating Instruction Following in Large Reasoning Models》,通过一个全新的评测基准…

    2025年5月24日
    800
  • 手机实现GPT级智能,比MoE更极致的稀疏技术:省内存效果不减

    在大模型争霸的时代,算力与效率的平衡成为决定胜负的关键。 端侧部署一直是大模型落地的最后一公里,却因算力瓶颈困难重重。 面壁智能和清华走出了一条与MoE不同的路径——神经元级稀疏激活,让模型在保持性能的同时大幅降低资源消耗。 这次技术探索的背后,是一个融合脑科学灵感与工程创新的故事。 △《Configurable Foundation Models: Bui…

    2025年4月12日
    1500

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

联系我们

400-800-8888

在线咨询: QQ交谈

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注微信