当大模型下载的带宽瓶颈被突破,新的矛盾却浮出水面——部署的模型与芯片架构互不兼容,采购的硬件又缺乏适配模型。这种“算力—模型”的二元割裂,正成为制约AI落地的隐形天花板。
对于这种卡不对型的痛点,第四范式正在实现自己的解决方案。9月22日,第四范式对外正式发布信创模盒ModelHub XC平台、信创社区及信创模型适配增值服务,以期打破客户、算力与开发者之间的屏障,为真实需求提供“兜底”服务。
华为昇腾、壁仞科技、天数智芯、昆仑芯、摩尔线程和曦望等头部芯片厂商,与客户伙伴中车信息等都来到发布现场。在第四范式联合创始人、首席科学家陈雨强的邀请下,芯片厂商代表和客户代表与其一起启动信创模盒ModelHub XC上线。
业内人士介绍,目前市面上运行的ModelHub中,很多国外模型和软件是为其硬件(如英伟达GPU)优化的,我们的国产硬件(如寒武纪)要想使用这些模型和软件就会“水土不服”。这就导致在国产算力生态中,不同模型往往需要分别适配,耗时长且重复工作量大。
“信创模盒”开创性发布专门适配信创算力的AI引擎体系EngineX,通过基础算法架构适配,驱动批量化模型支持。公司认为,这从根本上解决了国产信创芯片在AI模型兼容性和支持数量上的长期瓶颈问题,缩短了模型上国产算力平台的部署周期,实现“引擎驱动、多模型即插即用”。
业内认为,第四范式“信创模盒”普遍意义上能够下载模型的ModelHub,是能提供基于信创算力的批量化模型适配和优化功能的“高能社区”。
记者在“信创模盒”网页上看到,上线当日,它提供下载的模型种类丰富,已经适配认证过的模型数量就有上百个。
第四范式联合创始人、首席科学家陈雨强介绍,未来半年,适配认证的模型数量将陆续更新至千数级;一年内,达到十万数级;后续更将持续保持这一更新速度。目前平台已适配的信创算力包括:华为昇腾、寒武纪、天数智芯、昆仑芯、沐曦和曦望等(按英文名排序,排名不分先后),未来将覆盖市面所有主流信创算力。
其中,目前已经实现适配的模型里,不乏最近关注度极高的大模型DeepSeek V3.1、OpenAI的最新开源大语言模型gpt-oss-20B等“热门选手”。
同时,模型下方的小标签引人注意,它是“信创模盒”在让模型适配国产信创芯片后,提供的另一项“贴心服务”。标签标注的正是这个模型可适配的国产芯片品牌:下载了大模型要采购哪种芯片,或是有了芯片该下载哪种大模型能用,一目了然。
陈雨强表示,“信创模盒”还特别推出了一项增值服务——“信创模型适配增值服务”,针对不了解国产算力适配哪些模型,以及需要模型适配指定国产算力的用户,第四范式可以对模型进行调整,直至适配,实现适配“兜底”。无论是卡跑不了模型,还是有了模型不知道匹配什么卡,信创模型定制服务团队的几百名专业工程师协助解决。后续,还将有更多能力陆续开放,为开发者、客户提供定制化、更强的能力。