快科技2月23日消息,全球爆火、单日股价狂涨42%、被称作全球大模型第一股”的智谱日前发布GLM-5技术报告,公开了全部技术细节,正面回应套壳”蒸馏海外模型”等行业质疑。
智谱在报告中指出,GLM-5是一款旨在推动编程范式从VibeCoding”(氛围编程)转向AgenticEngineering”(智能体工程)的下一代基础模型。

总体而言,GLM-5能够实现性能的大幅跃升,主要得益于以下四大技术创新:
第一,引入DSA稀疏注意力机制(DeepSeekSparseAttention,DSA)。这一全新架构极大降低了训练与推理成本。此前的GLM-4.5依赖标准MoE架构提升效率,而DSA机制则使GLM-5能够根据Token的重要性动态分配注意力资源。在不折损长上下文理解和推理深度的前提下,算力开销得以大幅削减。得益于此,我们将模型参数规模成功扩展至744B(7440亿),同时将训练Token规模提升至28.5T(28.5万亿)。
第二,构建全新的异步RL基础设施。基于GLM-4.5时期slime框架训练与推理解耦”的设计,我们的新基建进一步实现了生成与训练”的深度解耦,将GPU利用率推向极致。该系统支持模型开展大规模的智能体(Agent)轨迹探索,大幅减缓了以往拖慢迭代速度的同步瓶颈,让RL后训练流程的效率实现了质的飞跃。
第三,提出全新的异步AgentRL算法。该算法旨在全面提升模型的自主决策质量。GLM-4.5曾依靠迭代自蒸馏和结果监督来训练Agent;而在GLM-5中,我们研发的异步算法使模型能够从多样化的长周期交互中持续学习。这一算法针对动态环境下的规划与自我纠错能力进行了深度优化,这也正是GLM-5能够在真实编程场景中表现卓越的底层逻辑。
第四,全面拥抱国产算力生态。从模型发布伊始,GLM-5就原生适配了中国GPU生态。我们已完成从底层内核到上层推理框架的深度优化,全面兼容七大主流国产芯片平台:华为昇腾、摩尔线程、海光、寒武纪、昆仑芯、天数智芯与燧原。
智谱表示,硬件生态的异构性往往会让高性能部署变得异常复杂,因此,将GLM-5适配至多样化的国产芯片基础设施是一项巨大挑战。尽管困难重重,我们通过与华为昇腾、摩尔线程、海光、寒武纪、昆仑芯、沐曦以及燧原等国内主流芯片平台的深度合作,成功完成了GLM-5的全栈适配。
得益于上述软硬协同的极致优化,GLM-5在单台国产算力节点上的性能表现,已足可媲美由两台国际主流GPU组成的计算集群;不仅如此,在长序列处理场景下,其部署成本更是大幅降低了50%。
在报告结尾,智谱还特别强调,代号为PonyAlpha”的盲测实验是一个里程碑时刻。在OpenRouter平台上匿名发布GLM-5是一步险棋,但最终的反馈不仅印证了我们的技术判断,更带来了巨大的惊喜。
通过隐去所有品牌信息,智谱让模型完成了最严苛的自我证明”,确保所有的评价都纯粹且客观。核心反馈如下:
上线仅几天,PonyAlpha就在OpenRouter社区引发了轰动。开发者们敏锐地察觉到了它在处理复杂代码、Agent任务链路及角色扮演时的卓越能力。
这种神秘的强大”引发了广泛猜测:初步统计显示,25%的用户推测它是Anthropic的ClaudeSonnet5,20%认为是Grok的新版本,10%猜是DeepSeekV4,而其余用户则成功猜中了GLM-5。
最终确认PonyAlpha真身即是GLM-5,这对智谱团队是一次巨大的鼓舞,也有力回击了长期以来外界对中国本土模型技术水准的质疑。
智谱表示,PonyAlpha(GLM-5)不仅赢在了基准测试的榜单上,更赢在了真实场景里。这标志着我们的研发重心已深度转向工程级可靠性”。这次匿名测试打破了先入为主的地缘政治偏见,让社区的认可回归到了好用与否”这一最纯粹的技术本质。
庆祝之余,我们深知任重道远。开源追赶闭源的战役仍在继续,我们将坚定不移地探索技术前沿,构建更高效、更智能的底层系统。


延伸阅读:
2026年春节前后,AI圈最受关注的两颗双子星”吸引了全行业目光。一颗是字节跳动发布的Seedance2.0,它凭借出色的视频生成能力受到全球社交网络的广泛关注,代表了AI在感性与创意维度的重要突破;另一颗则是让很多开发者彻夜难免的智谱GLM-5。Seedance2.0让世界看到了中国AI亮眼的想象力,GLM-5则在向世界展示中国AI扎实的执行力。
学界与业界正逐渐形成一种共识,大模型从写代码、写前端,进化到写工程、完成大任务,即VibeCoding”(氛围编程)转向AgenticEngineering”(智能体工程)。
GLM-5正是这一变革的产物:在Coding与Agent能力上,取得开源SOTA表现,在真实编程场景的使用体感逼近ClaudeOpus4.5,擅长复杂系统工程与长程Agent任务。
在全球权威的ArtificialAnalysis榜单中,GLM-5位居全球第四、开源第一。
GLM-5在编程能力上实现了对ClaudeOpus4.5的对齐,在业内公认的主流基准测试中取得开源模型SOTA分数。在SWE-bench-Verified和TerminalBench2.0中分别获得77.8和56.2的开源模型SOTA分数,性能超过Gemini3Pro。
2026年,大模型需要从会写”走到会完成”,尤其是端到端完成大型任务。GLM-5是一个系统架构师”,它不仅为开发精美的Demo而生,更为稳定交付生产结果而生。
在内部ClaudeCode评估集合中,GLM-5在前端、后端、长程任务等编程开发任务上显著超越GLM-4.7(平均增幅超过20%),能够以极少的人工干预自主完成Agentic长程规划与执行、后端重构和深度调试等系统工程任务,使用体感逼近Opus4.5。
()
(来源:站长之家)
免责声明:本站文章部分内容为本站原创,另有部分容来源于第三方或整理自互联网,其中转载部分仅供展示,不拥有所有权,不代表本站观点立场,也不构成任何其他建议,对其内容、文字的真实性、完整性、及时性不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容,不承担相关法律责任。如发现本站文章、图片等内容有涉及版权/违法违规或其他不适合的内容, 请及时联系我们进行处理。