千寻智能正式开源Spirit v1.5模型及相关核心代码
来源:证券时报网作者:聂英好2026-01-12 10:59

1月12日,千寻智能正式开源自研VLA基础模型Spirit v1.5,就在前一天,该模型在全球具身智能模型评测平台RoboChallenge上,综合评测斩获第一,超越了已经霸榜RoboChallenge数月之久的Pi0.5模型。

RoboChallenge网站显示,千寻智能自研的具身智能模型Spirit v1.5在RoboChallenge评测中取得综合排名第一,在任务得分与成功率两个维度均超越Pi0.5。

千寻智能表示,为验证榜单成绩来源于自研模型且真实有效,千寻智能同步开源了Spirit v1.5的基础模型权重、推理代码以及使用样例,接受公众与研究社区的独立检验。通过这一方式,研究者不仅可以复现榜单评测结果,也可以将Spirit v1.5作为具身智能基础模型,在此基础上开展进一步研究与创新。

公开资料显示,RoboChallenge是2025年新成立的标准化评测体系,由Dexmal、Hugging Face等机构联合发起,聚焦具身智能模型的跨平台能力验证,其评测任务覆盖复杂指令理解、多步骤操作规划以及跨场景执行稳定性等多个维度。

从评测结果来看,Spirit v1.5在多项任务中保持较高成功率,尤其在多任务连续执行、复杂指令拆解以及跨构型迁移等维度中表现稳定。截至最新评测周期,其综合得分超过Pi 0.5 等此前领先模型,位列榜单首位。

在模型架构上,Spirit v1.5采用Vision-Language-Action(VLA)统一建模框架,将视觉感知、语言理解与动作生成整合在同一决策流程中,减少多模块串联带来的信息损耗,并提升长程任务中的整体稳定性。

在训练方法上,Spirit v1.5的一个核心特点是不依赖高度精选的“干净”演示数据。千寻智能在技术博客中提出,过度脚本化、受控环境下采集的数据,虽然有利于模型快速收敛,但会限制其在真实世界中的泛化能力。

因此,Spirit v1.5在预训练阶段引入了开放式、多样化的数据采集范式。数据采集不再严格限定任务脚本,而是以“完成有意义目标”为导向,允许操作过程中自然串联多个子任务与原子技能。这种方式使模型在训练阶段接触到更接近真实世界的复杂性,包括遮挡、失败恢复以及任务之间的自然过渡。

相关消融实验显示,在相同数据规模下,基于多样化数据预训练的模型,在新任务上的迁移效率明显高于基于传统演示数据训练的模型,达到相同性能所需的计算资源显著减少。这一结果也解释了Spirit v1.5在RoboChallenge多构型、未见任务评测中的稳定表现。

千寻智能(Spirit AI)成立于2024年,总部位于杭州,由前珞石机器人联合创始人兼CTO韩峰涛发起创立,专注于具身智能机器人及通用人形机器人技术的研发与场景落地。其核心技术涵盖视觉语言模型ViLa、部件约束模型CoPa以及世界领先的运动控制系统,致力于打造通用智能机器人平台。

2025年7月,千寻智能完成近6亿元PreA+轮融资,由京东领投,中国互联网投资基金(简称“中网投”)、浙江省科创母基金、华泰紫金、复星锐正等知名机构跟投。千寻智能成立半年内相继完成种子轮、天使轮融资,累计融资金额近2亿元,其背后的资本网络横跨“中东系”“宁德系”“小米系”等,投资方包括弘晖基金、达晨创投、千乘资本等知名机构。

责任编辑: 刘灿邦
声明:证券时报力求信息真实、准确,文章提及内容仅供参考,不构成实质性投资建议,据此操作风险自担
下载“证券时报”官方APP,或关注官方微信公众号,即可随时了解股市动态,洞察政策信息,把握财富机会。
网友评论
登录后可以发言
发送
网友评论仅供其表达个人看法,并不表明证券时报立场
暂无评论
为你推荐
时报热榜
换一换
    热点视频
    换一换