在CES 2025主题演讲中,英伟达大秀了一系列AI新品。
CES是消费电子主场,此次英伟达也是以消费级显卡GeForce RTX 50系列打头阵,同时公布了巨型芯片Grace Blackwell NVLink72、小型超级计算机Project DIGITS、世界基础模型平台Cosmos等。
虽然是消费端产品居多,但是技术新词也不少。美西时间1月7日,CES开幕当天,黄仁勋接受了21世纪经济报道等媒体的采访,对前一日发布的新品进一步解读,也谈到了AI的新趋势。
当黄仁勋踏进采访间,他率先拿起的是Project DIGITS,爱不释手地说这很“cute”,并表示大家可以使用这台AI超级计算机。
采访中,黄仁勋也对DIGITS再释义,DIGITS是“deep learning GPU intelligence training system”(深度学习GPU智能训练系统)的缩写。他坦言这款产品更适合科学家、开发者等使用,但是他认为DIGITS潜力巨大,因为“人工智能可以开启一个新篇章,它把世界上的计算机抛在后面”。
有意思的是,纵观英伟达过去的发展历史,其实他最早就是希望作为一家to C的公司,比如之前做游戏主机。但现实却相反,他选择了做算力的提供方。现在,通过DIGITS这样的“电脑主机”,又开拓了偏C端的AI PC路径。
另一方面,随着AI应用不断涌现,推理成本也成为关注焦点。黄仁勋谈道,英伟达通过不断提升硬件性能(如Blackwell GPU系列)和优化计算架构,大幅提高AI推理性能并降低成本。例如,新一代GPU的推理性能较上一代提升30到40倍,从而显著降低了数据中心的运行成本。此外,随着算力增强,训练和推理中的数据和模型精度不断提高,也推动了整个行业的发展。
此外,黄仁勋一如既往地看好机器人、自动驾驶,他认为未来几乎所有的车都会具备自动驾驶能力。同时黄仁勋对智能眼镜和AI技术的结合表示感到兴奋,这种设备可以通过云端的Cosmos模型支持,将复杂AI能力压缩为小型模型,用于实时分析和交互。
黄仁勋。资料图
迎接AI时代
记者:虽然英伟达发布了AI PC相关产品,但是今年相关产品销量并未大幅增长,英伟达是否有能力改变这一现状?
黄仁勋:AI的开发最早是在云端完成的。过去几年里,英伟达的增长主要来自云端,云端AI已经变得非常强大,尤其是在处理复杂的大型模型时。例如,这些模型非常庞大,适合在数据中心运行和部署。
然而,我们仍然认为,有许多设计师、软件工程师、创作者和AI爱好者更喜欢在个人电脑上工作。问题在于,目前AI的大部分开发都需要在云端进行,涉及大量的数据传输和计算,而这对很多人来说并不方便。
幸运的是,Windows系统中的WSL 2(Windows Subsystem for Linux)提供了解决方案。这是一个虚拟化环境,可以在Windows上运行第二操作系统,并支持Docker容器。通过确保AI技术能够在PC上的WSL 2环境中运行,我们可以将云端的计算能力带到个人电脑上。
我们正在努力推动这一转变,我认为这就是正确的解决方案,我感到非常兴奋,开发者们能够利用Windows加上WSL 2在本地运行AI模型。
记者:发布会宣布了诸多进展,对于那些可能对AI缺乏了解的听众来说,你是否能用更简单的方式解释这些概念?
黄仁勋:作为一家科技公司,我们技术在影响并推动未来的消费者电子领域发展。昨天一个重要的宣布内容是,我们推出了一个名为“Cosmos”的基础模型。正如GPT专注于语言的基础模型、Stable Diffusion专注于图像,Cosmos是一种能够理解物理世界的模型。
它可以理解摩擦力、惯性、物体存在感以及几何和空间关系等物理属性。这些是儿童都能理解的物理现象,但当前的语言模型却无法处理。我们相信需要一个能理解这个物理世界的基础模型。
一旦Cosmos建立起来,它就能像GPT和Stable Diffusion那样支持许多应用。例如,您可以对Cosmos模型说,“告诉我这个房间里现在的情况”,它可以基于摄像头看到的信息回答你。
总之,Cosmos是一个理解物理世界的模型。它的意义在于,只有让AI理解物理环境,AI才能在现实世界中做出有意义的操作。自动驾驶汽车需要理解物理世界,机器人也需要理解物理世界。因此,Cosmos这样的模型是实现多模态的起点。
就像GPT模型推动了人工智能应用的发展,Llama对于人工智能的各种活动至关重要,而Stable Diffusion则激发了图像和视频生成模型的发展一样,我们期望Cosmos能够成为推动下一波人工智能创新的关键。
解决成本难题
记者:你提到了scaling law,特别是测试时间计算方面。但是计算成本变得非常昂贵,有些运行需要耗费数千美元。英伟达如何应对这些高昂的成本?是否有解决方案可以让推理计算更具成本效益?
黄仁勋:解决推理计算性能和成本问题的直接方法是提升我们的计算能力。这也是为什么我们推出了Blackwell GPU NVL 72,其推理性能相比Hopper提升了30到40倍。通过这种提升,我们将推理计算的单位成本降低了同等幅度,因为数据中心的其他开销基本保持不变。
从历史上看,计算技术的进步一直依赖于降低计算成本。过去20年,我们将边际计算成本降低了约100万倍,使得像机器学习这样的技术成为可能。同样的趋势也会发生在推理阶段:通过不断提升性能,推理成本将会继续下降。
此外,我们还有一种方式。今天,许多测试时间计算阶段的输出会变成预训练、后训练模型的输入数据。这些数据会被用于后续的模型改进,这种方法不仅降低了训练和推理的综合成本,还能让模型变得更加智能。当然,这一过程需要时间。因此,这三种scaling law将会并存一段时间。
一方面,我们会努力提升所有模型的智能水平,另一方面,人们会不断提出更加复杂的问题,并期待得到更加智能的回答,这个循环将会持续不断地进行下去。
记者:我们注意到英伟达最新的旗舰显卡RTX 5090和RTX 5080之间存在较大的性能差距。5090的核心数量是5080的两倍,而价格也高出一倍。为什么会设计出这样大的差距?
黄仁勋:原因很简单,总有一些用户想要“最好的”。如果我们提供稍差一点、便宜100美元的产品,他们也不在乎。对于他们来说,最重要的是品质。当然,2000美元的花费不算小,但其价值是值得的。
但请记住,这些技术通常被用于家庭影院级的环境。这些用户往往已经在显示器和音响系统上投入了上万美元,因此他们也希望配备最好的GPU。我们的很多客户都有这样的需求,他们愿意为了获得顶尖性能而投资更多。
拓展智能产品业务范围
记者:你提到了Agent AI,像AWS、微软、Salesforce这样的公司,这些公司也有平台,你们是如何合作的?
黄仁勋:我们不是一家虚拟企业公司,而是一个科技平台公司。我们将构建工具包、库和模型。我们关注ServiceNow、SAP、Oracle、Synopsys、Cadence和西门子等公司,他们在垂直领域很专业,但他们并不希望将精力投入到计算层和AI库的开发上。因此,我们为他们提供了这一解决方案。
我们开发了NIM和NEMO技术,如果我们的CSP(云服务提供商)希望使用它们——实际上许多CSP已经在使用了——他们可以用来训练他们的语言模型。我们为行业创造了这些库,这样他们就不需要自己去做,不需要重复构建这些东西了。
记者:自动驾驶领域,与2017年相比,2025年行业有什么区别?2017年遇到的问题是什么?而2021年的技术创新是什么?
黄仁勋:首先,未来所有的移动设备都会实现自动化。在未来,大多数汽车你仍然可以选择驾驶,但所有的汽车都有能力自动驾驶。
5年前,这项技术是否能强大并不确定,但现在技术,传感器技术、计算机技术和软件技术已经非常成熟。我认为现在有太多证据表明,新一代汽车,尤其是电动汽车,几乎每一辆都承诺具有自动驾驶能力。这些技术不再是实验性质,而是正在广泛落地。
特斯拉无疑是这个领域的领导者之一,但我们也看到来自中国的创新正在快速崛起。例如比亚迪、小鹏、蔚来、小米等公司展示了非常先进的技术水平。这些公司在汽车行业中设立了新的标准,证明了自动驾驶和电动车技术的潜力。
我认为世界已经发生了变化。虽然技术成熟的过程花费了一些时间,我们的认知也在不断发展,但现在我认为,自动驾驶的未来已经非常接近现实。