AI时代下,推理技术关系用户与AI交互的体验,包括回答问题的时延、答案的准确度以及复杂上下文的推理能力等,在此背景下,华为最新推出AI推理黑科技UCM(推理记忆数据管理器),可大幅降低推理时延与成本,并大幅提升推理效率。
8月12日,华为举行发布会,正式发布AI推理创新技术UCM。
据了解,目前,国外主流模型的单用户输出速度已进入200 Tokens/s区间(时延5ms),而我国普遍小于60 Tokens/s(时延50-100ms),如何解决推理效率与用户体验的难题迫在眉睫。
“高延迟、高成本是当下AI推理领域发展的主要挑战。”华为数字金融军团CEO曹冲在会上表示。
华为方面介绍,作为一款以KV Cache为中心的推理加速套件,UCM融合了多类型缓存加速算法工具,分级管理推理过程中产生的KV Cache记忆数据,可扩大推理上下文窗口,以实现高吞吐、低时延的推理体验,降低每Token推理成本。
在具体技术实现路径方面,华为相关负责人表示,UCM通过层级化自适应的全局前缀缓存技术,可实现任意物理位置、任意输入组合上的KV前缀缓存重用,在多轮对话、RAG知识检索等场景中直接调用KV缓存数据,避免重复计算,使首Token时延最大降低90%。
另外,UCM可根据记忆热度在HBM、DRAM、SSD等存储介质中自动分级缓存,同时融合多种稀疏注意力算法,实现存算深度协同,使长序列场景下TPS(每秒处理Token数)提升2—22倍,降低每Token推理成本。
此外,UCM通过动态KV逐层卸载、位置编码扩展、Prefill稀疏等组合技术,将超长序列Cache分层卸载至外置专业存储,利用算法突破模型和资源限制,实现10倍级推理上下文窗口扩展。
华为相关负责人表示,当前,中国互联网企业在AI领域的投资规模仅为美国的十分之一。与此同时,国内大模型的推理体验与海外相比仍存在差距——而推理体验的不足会直接导致用户流失,进而减缓企业的投资节奏;投资收缩又会使企业难以承担高昂的推理成本,反过来进一步限制推理体验的提升,形成恶性循环。UCM能够在算力基础设施投入保持不变的前提下,显著优化推理体验,推动AI推理进入“体验提升—用户增长—投资加大—技术迭代”的商业正循环。
记者了解到,华为UCM已率先在中国银联“客户之声”“营销策划”“办公助手”三大业务场景中,开展智慧金融AI推理加速应用试点,并已取得一定成果。
“AI时代后,Token经济时代到来,目前推理过程仍存不少挑战,如何改进推理系统的体验和效率是一个重要的话题。与中国银联合作落地UCM,对于AI推理的效率来说是一个有效的突破。”华为副总裁、数据存储总裁周跃峰表示。
随着AI应用向各类实际场景深度渗透,用户规模和请求量急剧攀升,模型分析和生成的Token数更呈现指数级增长态势,最大化单Token智能承载力、优化其成本成为厂商核心目标,Token经济时代来临,训练、推理效率与体验量纲都以Token为表征。以火山引擎为例,2025年5月日均Token调用达16.4万亿,较2024年同期激增137倍。巨大的Token处理量意味着高昂运营成本——服务器维护、电力消耗持续攀升;而保障流畅推理体验又需加大算力投入。如何在两者间找到平衡,成为全行业亟待破解的难题。
在此背景下,华为计划于2025年9月正式开源UCM,届时将在魔擎社区首发,后续逐步贡献给业界主流推理引擎社区,并共享给业内所有Share Everything(共享架构)存储厂商和生态伙伴。
“为什么要开源,是希望行业内更多人(企业)一起推动推理框架、标准的形成,这是一个大家共创标准、共同推动推理领域加速发展的过程。”华为相关负责人表示。