刚刚,智谱一口气免费开源6款模型,200 tokens/秒成商用速度之最

就在刚刚,智谱一口气上线并开源了三大类最新的GLM模型:

  • 沉思模型GLM-Z1-Rumination
  • 推理模型GLM-Z1-Air
  • 基座模型GLM-4-Air-0414

若是以模型大小(9B和32B)来划分,更是可以细分为六款

刚刚,智谱一口气免费开源6款模型,200 tokens/秒成商用速度之最

首先是两个9B大小的模型:

  • GLM-4-9B-0414:主攻对话,序列长度介于32K到128K之间
  • GLM-Z1-9B-0414:主攻推理,序列长度介于32K到128K之间

还有四个32B大小的模型,它们分别是:

  • GLM-4-32B-Base-0414:基座模型,序列长度介于32K到128K之间
  • GLM-4-32B-0414:主攻对话,序列长度介于32K到128K之间
  • GLM-Z1-32B-0414:主攻推理,序列长度介于32K到128K之间
  • GLM-Z1-32B-Rumination-0414:主攻推理,序列长度为128K

而随着一系列模型的开源,智谱也解锁了一项行业之最——

推理模型GLM-Z1-32B-0414做到了性能与DeepSeek-R1等顶尖模型相媲美的同时,实测推理速度可达200 tokens/秒

如此速度,已然是目前国内商业模型中速度最快,而且它的高性价比版本价格也仅为DeepSeek-R1的1/30

值得一提的是,本次开源的所有模型均采用宽松的MIT许可协议。

这就意味着上述的所有模型都可以免费用于商业用途、自由分发,为开发者提供了极大的使用和开发自由度。

那么这些开源模型的效果又如何?

(PS:文末有彩蛋~)

先看性能

首先来看下GLM-4-32B-0414

它是一款拥有320亿参数的基座大模型,其性能足以比肩国内外规模更大的主流模型。

据了解,这个模型基于15T高质量数据进行预训练,其中特别融入了大量推理类合成数据,为后续强化学习扩展提供了坚实基础。

在后训练阶段,智谱团队不仅完成了对话场景的人类偏好对齐,还运用拒绝采样和强化学习等先进技术,重点提升了模型在指令理解、工程代码生成、函数调用等关键任务上的能力,从而显着增强了智能体执行任务的核心素质。

实际测试表明,GLM-4-32B-0414在工程代码编写、Artifacts生成、函数调用、搜索问答及报告撰写等多个应用场景均展现出色表现。

部分基准测试指标已达到或超越 GPT-4o、DeepSeek-V3-0324(671B)等更大规模模型的水平。

刚刚,智谱一口气免费开源6款模型,200 tokens/秒成商用速度之最

从实测效果来看,GLM-4-32B-0414进一步提升了代码生成能力,可处理并生成结构更复杂的单文件代码。

例如来上这么一段Prompt:

刚刚,智谱一口气免费开源6款模型,200 tokens/秒成商用速度之最

再如:

刚刚,智谱一口气免费开源6款模型,200 tokens/秒成商用速度之最

以及设计一个小游戏也是不在话下:

刚刚,智谱一口气免费开源6款模型,200 tokens/秒成商用速度之最

再来看下GLM-Z1-32B-0414的性能,一款专为深度推理优化的模型。

这个模型在GLM-4-32B-0414的基础上,采用了冷启动结合扩展强化学习的策略,并针对数学推导、代码生成、逻辑推理等高难度任务进行了专项优化,显着提升了复杂问题的解决能力。

此外,它还通过引入基于对战排序反馈的通用强化学习(RLHF),模型的泛化能力得到进一步强化。

尽管仅拥有32B参数,GLM-Z1-32B-0414在部分任务上的表现已可媲美 671B 参数的DeepSeek-R1。

在AIME 24/25、LiveCodeBench、GPQA等权威基准测试中,该模型展现出卓越的数理推理能力,能够高效应对更广泛、更具挑战性的复杂任务。

刚刚,智谱一口气免费开源6款模型,200 tokens/秒成商用速度之最

接下来,是更小规模的GLM-Z1-9B-0414,在技术上是沿用了上述模型的方法。

虽然只有9B大小,但它在数学推理及通用任务上展现出超越参数规模的卓越性能,综合表现稳居同量级开源模型前列。

尤其值得关注的是,在资源受限的应用场景中,该模型能够高效平衡计算效率与推理质量,为轻量化AI部署提供了极具竞争力的解决方案。

刚刚,智谱一口气免费开源6款模型,200 tokens/秒成商用速度之最

最后,再来看下沉思模型GLM-Z1-Rumination-32B-0414

这个模型可以说是智谱对AGI未来形态的一个探索。

沉思模型采用与传统推理模型截然不同的工作范式,通过多步深度思考机制有效应对高度开放性和复杂性问题。

其核心突破体现在三个方面:

  1. 在深度推理过程中智能调用搜索工具处理复杂子任务;
  2. 创新性地引入多维度规则奖励体系,实现端到端强化学习的精准引导与扩展;
  3. 完整支持”问题发现→信息检索→逻辑分析→任务解决”的研究闭环系统。

这些技术创新使该模型在学术写作、深度研究等需要复杂认知能力的任务上展现出显着优势。

例如让它回答一个科学假设推演问题:

再看价格

除模型开源外,基座、推理两类模型也已同步上线智谱MaaS开放平台(bigmodel.cn),面向企业与开发者提供API服务。

本次上线的基座模型提供两个版本:GLM-4-Air-250414和GLM-4-Flash-250414,其中GLM-4-Flash-250414完全免费。

上线的推理模型分为三个版本,分别满足不同场景需求:

  • GLM-Z1-AirX(极速版):定位国内最快推理模型,推理速度可达 200 tokens/秒,比常规快 8 倍;
  • GLM-Z1-Air(高性价比版):价格仅为 DeepSeek-R1 的 1/30,适合高频调用场景;
  • GLM-Z1-Flash(免费版):支持免费使用,旨在进一步降低模型使用门槛。

刚刚,智谱一口气免费开源6款模型,200 tokens/秒成商用速度之最

为了更加一目了然,价格表如下:

刚刚,智谱一口气免费开源6款模型,200 tokens/秒成商用速度之最

至于配置方面,32B基础模型、32B推理模型、32B沉思模型(裸模型)的要求如下:

  • 1张H100 / A100或者更先进的NVIDIA旗舰显卡
  • 4张4090/5090/3090
One More Thing

除了上述内容之外,智谱这次还有一个亮点的动作——

拿下一个顶级域名Z.ai!

刚刚,智谱一口气免费开源6款模型,200 tokens/秒成商用速度之最

目前已经上线了下面三款模型:

刚刚,智谱一口气免费开源6款模型,200 tokens/秒成商用速度之最

而且官方还亮出了一个比较有意思的slogan:

刚刚,智谱一口气免费开源6款模型,200 tokens/秒成商用速度之最

最后,纵观智谱在大模型时代的发展,不得不感慨其更新迭代以及开源的速度。

这样难怪它能成为第一家正式启动IPO流程的“大模型六小龙”。

体验地址:
z.ai

主题测试文章,只做测试使用。发布者:人脑网,转转请注明出处:https://www.rennao.com.cn/5763.html

(0)
人脑网的头像人脑网
上一篇 2025年4月15日 下午3:23
下一篇 2025年4月15日 下午3:23

相关推荐

  • 北京队再上大分:新AI一句话搞开发,代码实时可见 | 免费可用

    什么?! 现在随便一个完全不懂编程的人,都可以开发完整网站了??? 你没看错,现在搞开发啊,真的就是一句话的事儿 例如你想做一个fashion一点的电商网站,那么你只需要来上一句: 然后啊,这个AI就开始思考你需求的意图了。 但毕竟咱们Prompt过于简单了,于是乎,这个AI还贴心地基于需求,给出了诸多细节选项,包括: 响应式设计,适配不同设备 商品分类和搜…

    2025年4月15日
    2000
  • 粉笔CTO:大模型打破教育「不可能三角」,因材施教真正成为可能

    2025,当大模型来到应用爆发之年,越来越多的垂直行业当中,开始涌现出AI落地的经典实践案例。 教育领域中,专注于职业教育培训的粉笔,就是其中之一。 就在第三届AIGC产业峰会现场,粉笔CTO陈建华坦言: 并且这种可能性,正在粉笔的亲身实践中逐渐成为可以量化观察的实例。 为了完整体现陈建华的思考,在不改变原意的基础上,量子位对演讲内容进行了编辑整理,希望能给…

    2025年4月18日
    1200
  • 超九成年轻人工作学习离不开AI,人均还有1.8个AI朋友丨Soul

    不是我说,年轻人群体到底怎么看AI、用AI啊??? 现在摆在眼前的有这样一份调研数据,给我们更直观的答案。参加调研的年轻人群们—— 一方面呈现出与新技术共生的状态。 超九成已习惯在工作学习时使用AI辅助创作;约两成年轻人已经通过AI赚到钱。 另一方面,他们中的大多数已经在使用AI获取情绪价值。 超七成愿意和AI虚拟人做朋友,约六成年轻人拥有虚拟伙伴,参与调研…

    2025年4月6日
    1300
  • 人类一生所学不过4GB,加州理工顶刊新研究引热议

    24小时不间断学习且不遗忘,一辈子也只有4GB的“知识储量”? 科学家们最新研究,计算出了人类学习积累上限,就这么多~~(甚至还不如一块U盘能装)。 这是来自Cell旗下神经科学顶刊Neuron上的一项工作,它提出了一个发人深省的悖论: 由此,按照每秒10bit的速度来算,人类24小时不间断学习且不遗忘,100年储存的知识也不过4GB。 什么概念呢?来和大模…

    2025年4月14日
    1400
  • UniToken:多模态“全能选手”,一次编码搞定图文理解与图像生成

    首次在统一框架内实现理解与生成的“双优表现”,打破了多模态统一建模的僵局! 复旦大学和美团的研究者们提出了UniToken——一种创新的统一视觉编码方案,在一个框架内兼顾了图文理解与图像生成任务,并在多个权威评测中取得了领先的性能表现。 UniToken通过融合连续和离散视觉表征,有效缓解了以往方法中“任务干扰”和“表示割裂”的问题,为多模态统一建模提供了新…

    2025年4月25日
    700

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

联系我们

400-800-8888

在线咨询: QQ交谈

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注微信