技术细节全公开!大模型第一股,首次披露!
来源:证券时报网作者:周春媚2026-02-23 11:32

2月22日,“大模型第一股”智谱发布了最新一代基础模型GLM-5的技术报告,披露了GLM-5实现性能大幅跃升的技术细节。其中,异步智能体强化学习算法作为核心创新点,引发许多技术圈人士的关注,被视作GLM-5能够在真实编程场景中表现卓越的底层逻辑。

作为一款旨在推动编程范式从“Vibe Coding”(氛围编程)转向“Agentic Engineering”(智能体工程)的下一代基础模型,GLM-5在编程能力与智能体能力上的表现出色。据智谱介绍,GLM-5能够实现性能的大幅跃升主要得益于以下四大技术创新:

第一,引入DSA稀疏注意力机制(DeepSeek Sparse Attention, DSA)。这一全新架构极大降低了训练与推理成本。此前的GLM-4.5依赖标准MoE架构提升效率,而DSA机制则使GLM-5能够根据Token的重要性动态分配注意力资源。在不折损长上下文理解和推理深度的前提下,算力开销得以大幅削减。得益于此,GLM-5将模型参数规模成功扩展至 744B(7440亿),同时将训练Token规模提升至28.5T(28.5万亿)。

第二,构建全新的异步RL基础设施。基于GLM-4.5 时期slime框架“训练与推理解耦”的设计,智谱的新基建进一步实现了“生成与训练”的深度解耦,将GPU利用率推向极致。该系统支持模型开展大规模的智能体轨迹探索,大幅减缓了以往拖慢迭代速度的同步瓶颈,让RL(强化学习)后训练流程的效率实现了质的飞跃。

第三,提出全新的异步Agent RL算法。该算法旨在全面提升模型的自主决策质量。GLM-4.5曾依靠迭代自蒸馏和结果监督来训练Agent;而在GLM-5中,智谱研发的异步算法使模型能够从多样化的长周期交互中持续学习,这一算法针对动态环境下的规划与自我纠错能力进行了深度优化。

第四,全面拥抱国产算力生态。从模型发布伊始,GLM-5就原生适配了中国GPU生态,已完成从底层内核到上层推理框架的深度优化,全面兼容七大主流国产芯片平台:华为昇腾、摩尔线程、海光、寒武纪、昆仑芯、天数智芯与燧原。

自在OpenRouter平台上匿名发布GLM-5(代号为“Pony Alpha”),智谱不仅在技术圈引发了轰动,其在资本市场的表现也格外亮眼,股价从2月9日至今已实现翻倍,最高触及725港元/股,彰显了市场对其技术实力和未来前景的认可。

值得注意的是,作为一款开源模型,GLM-5的效果受到全球热捧,而此次公开披露GLM-5的技术细节,再一次提振了开源社区的信心。最近,硅谷顶级的风投机构a16z发布了一组数据,将智谱的开源模型GLM-5和全球闭源模型天花板之一的Claude Opus 4.6进行对比,结果显示开源大模型和顶级闭源模型之间的能力差距正在以肉眼可见的速度快速收窄。

智谱在技术报告的最后也指出,GLM-5有力回击了长期以来外界对中国本土模型技术水准的质疑,并强调开源追赶闭源的战役仍在继续,公司将坚定不移地探索技术前沿,构建更高效、更智能的底层系统。

责任编辑: 孙孝熙
校对: 祝甜婷
声明:证券时报力求信息真实、准确,文章提及内容仅供参考,不构成实质性投资建议,据此操作风险自担
下载“证券时报”官方APP,或关注官方微信公众号,即可随时了解股市动态,洞察政策信息,把握财富机会。
网友评论
登录后可以发言
发送
网友评论仅供其表达个人看法,并不表明证券时报立场
暂无评论
为你推荐
时报热榜
换一换
    热点视频
    换一换