400亿参数大模型:分布式算力,DeepSeek架构,3090单卡部署

打破科技巨头算力垄断,个人开发者联手也能训练超大规模AI模型?

Nous Research宣布推出Psyche Network,可以将全球算力整合起来训练强大的人工智能。

400亿参数大模型:分布式算力,DeepSeek架构,3090单卡部署

Psyche是一个基于Deepseek的V3 MLA架构去中心化训练网络,测试网首次启动时直接对40B参数LLM进行预训练,可以在单个H/DGX上训练,并在3090 GPU上运行。

400亿参数大模型:分布式算力,DeepSeek架构,3090单卡部署

以往类似规模的模型训练往往需要耗费大量的资源和时间,并且通常是由大型科技公司或专业研究机构凭借其雄厚的资金和算力优势来完成的。

Psyche的出现让个人和小团体也可获取资源创建独特大规模模型。

400亿参数大模型:分布式算力,DeepSeek架构,3090单卡部署

对此,有网友表示,Nous Research有潜力成为新的前沿AI实验室。

400亿参数大模型:分布式算力,DeepSeek架构,3090单卡部署

技术突破和网络架构
DisTrO优化器

在传统AI训练中,数据需在中心服务器与分布式GPU之间高频传输,带宽不足会导致GPU利用率暴跌。

2024年Nous研发的DisTrO分布式训练优化器,通过梯度压缩(仅传输关键参数更新)异步更新策略,将跨节点通信的数据量降低90%以上,突破了训练过程中的带宽限制,使得训练可以去中心化

400亿参数大模型:分布式算力,DeepSeek架构,3090单卡部署

点对点网络堆栈

Psyche创建了一个自定义的点对点网络堆栈,用于协调全球分布式GPU运行DisTrO。

这个基于P2P(点对点)协议的专用网络层,无需依赖中心化服务器协调,全球GPU可直接通过加密通道交换梯度数据。

这一设计彻底摆脱了对传统云服务商高带宽网络的依赖,即使是家用宽带连接的GPU,也能稳定参与训练。

系统架构

400亿参数大模型:分布式算力,DeepSeek架构,3090单卡部署

Psyche网络架构有三个主要部分:

coordinator:协调器,存储有关训练运行状态和参与者列表的元数据。处理一轮训练中每个阶段之间的转换,且负责为运行中的所有客户端提供同步点。

clients:客户端,负责训练、见证和验证。每个客户端都保持自身状态与协调器同步。

data provider:负责提供训练所需的数据。可以是本地的也可以是HTTP或 CP提供者。

40B参数LLM预训练

此前互联网公开的大规模预训练多由Meta、Google等巨头主导(如LLaMA 2的700亿参数模型),Psyche以去中心化模式实现同等级别训练。

400亿参数大模型:分布式算力,DeepSeek架构,3090单卡部署

Psyche首次测试网运行使用的是Deepseek的V3 MLA架构。

MLA通过低秩联合压缩键值和矩阵分解技术,降低计算复杂度与内存占用,使 400 亿参数大语言模型在有限算力下高效训练。

多头注意力机制与潜空间表示学习相结合,提升模型语言理解与生成能力;并且,旋转位置嵌入的运用,有效解决长序列位置依赖问题,从多维度保障了训练的高效性与模型性能的优质性。

数据集

使用了FineWeb(14T)、去除部分不常见语言的FineWeb-2(4T)和The Stack v2(1T),些数据集涵盖丰富信息,为模型训练提供了有力支持。

分布式训练策略

  • 模型并行与数据并行结合:将400亿参数拆解为128个分片,分布在不同节点进行 “模型并行” 训练,同时每个节点处理独立的数据批次(“数据并行”),通过DisTrO优化器同步梯度更新。
  • 动态自适应批量大小:根据节点网络延迟自动调整每个批次的训练数据量(如高延迟节点使用较小批次,减少等待时间),使全局训练效率提升25%。
未来将是分布式训练的天下?

随着AI模型参数规模呈指数级增长,传统集中式训练模式正面临算力垄断、成本高昂和扩展性瓶颈的严峻挑战。

分布式训练的崛起,正在彻底改写这一格局。

就在几天前,Prime Intellect发布了首个分布式RL训练模型INTELLEC-2,引起了广泛关注。

400亿参数大模型:分布式算力,DeepSeek架构,3090单卡部署

Nous Research也称Psyche初始训练只是起点,后续计划整合监督微调、强化学习等完整的训练后阶段工作,以及推理和其他可并行工作负载。

400亿参数大模型:分布式算力,DeepSeek架构,3090单卡部署

谁能站稳分布式训练擂台?当然,我们期待更多更优秀的成果~

感兴趣的小伙伴可以到官方查看更加详细的内容。

博客:
https://nousresearch.com/nous-psyche/
训练仪表板:
https://psyche.network
代码:
https://github.com/PsycheFoundation/psyche
文档:
https://docs.psyche.network
论坛:
https://forum.psyche.network
HuggingFace:
https://huggingface.co/PsycheFoundation
Discord:
https://discord.com/invite/jqVphNsB4H
参考链接:
[1]https://x.com/NousResearch/status/1922744494002405444
[2]https://x.com/PrimeIntellect/status/1921730059620196772

— 完 —

主题测试文章,只做测试使用。发布者:人脑网,转转请注明出处:https://www.rennao.com.cn/14534.html

(0)
人脑网的头像人脑网
上一篇 2025年5月19日 下午3:12
下一篇 2025年5月19日 下午3:13

相关推荐

  • 参数量暴降,精度反升!哈工大宾大联手打造点云分析新SOTA

    新架构选择用KAN做3D感知,点云分析有了新SOTA! 来自哈尔滨工业大学(深圳)和宾夕法尼亚大学的联合团队最近推出了一种基于Kolmogorov-Arnold Networks(KANs)的3D感知解决方案——PointKAN,在处理点云数据的下游任务上展现出巨大的潜力。 PointKAN与同类产品的比较 替代传统的MLP方案,PointKAN具有更强的学…

    2025年5月20日
    800
  • GitHub版DeepResearch来了!覆盖所有代码库,模型架构可视化

    专为GitHub打造的免费百科全书来了—— DeepWiki,覆盖全球所有GitHub存储库,无需注册即可食用。 最简单的触发模式,就是只需要把链接中「github」改为「deepwiki」字样,就可以生成项目专属的wiki百科页面。 整个页面模块清晰流畅,还有生成可视化架构图(对比GitHub项目主页是没有的),每个部分都有相关的资料来源,可以直接触达,开…

    2025年4月27日
    1800
  • 英伟达50系甜品卡发售日期定了!国内定价2499元

    官宣!英伟达RTX 5060显卡发售时间定了。 根据英伟达中国官网最新消息,RTX 5060桌面显卡将于北京时间5月20日00:00(太平洋时间5月19日9:00)正式开卖,国内售价为2499元人民币。 此外,搭载该GPU的笔记本也将在5月上市,起步价为1099美元(官方建议售价7999元起)。 从官方公布的参数来看,定位中端的RTX 5060主要有两大看点…

    2025年5月8日
    1300
  • 雷军发布小米自研3nm芯片系列新品:首搭手机平板和手表

    刚刚,小米自研SoC芯片玄戒O1终于揭开神秘面纱! 采用最先进的第二代3nm制程,能效表现位列第一梯队—— 发布全程,雷军都在将这块芯片与苹果最先进手机芯片做对标。 玄戒O1采用双超大核设计,CPU多核性能跑分超越苹果A18 Pro,GPU曼哈顿帧率更是比A18 Pro提升了43%。 与此同时,搭载玄戒O1的小米15S Pro手机也同步发售,16+512GB…

    2025年5月23日
    700
  • o3/o4-mini幻觉暴增2-3倍!OpenAI官方承认暂无法解释原因

    OpenAI新模型发布后,大家体感都幻觉更多了。 甚至有人测试后发出预警:使用它辅助编程会很危险。 具体来说,它经常捏造从未运行过的代码返回结果,在被质问时找理由狡辩,甚至还会说是用户的错。 当大家带着疑问仔细阅读System Card,发现OpenAI官方也承认了这个问题,与o1相比o3幻觉率是两倍,o4-mini更是达到3倍。 并且OpenAI只是说“需…

    2025年4月21日
    1700

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

联系我们

400-800-8888

在线咨询: QQ交谈

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注微信