李彦宏内部讲话纠偏认知误区:未来大模型差距会变大,会从智能体向AI Worker进化
来源:证券时报网作者:e公司 王小伟2024-09-11 20:30

百度作为中国首家发布大模型的大厂,李彦宏的相关判断,一直被业内视为观察中国大模型演进趋势的一支重要力量。

e公司记者9月11日从业内获得了百度李彦宏的一则内部讲话。在最近一次和员工交流中,他谈及三个大模型认知误区,涵盖了大模型竞争、开源模型效率、智能体趋势等热点话题。

李彦宏认为未来大模型之间的差距可能会越来越大。他认为,大模型的天花板很高,现在距离理想情况还相差非常远,所以模型要不断快速迭代、更新和升级;需要几年、十几年如一日地投入,不断满足用户需求,降本增效。

随着“百模大战”的推进,有市场声音认为,行业大模型之间的能力已经没有“壁垒”。包括字节跳动、科大讯飞等平台在内,现在不少发布者推出大模型迭代产品的时候,都在对标GPT。

李彦宏对此也给出了不同观点。他认为,“每次新模型发布,都要和GPT-4o做比较,说我的得分已经跟它差不多了,甚至某些单项上得分已经超过它了,但这并不表明和最先进的模型就没有差距了。”

他解释说,很多模型为了证明自己,会在发布之后去打榜,会去猜测试题目、答题技巧,从榜单上看 ,或许模型的能力已经很接近了,但到实际应用中,实力还是有明显差距的。

李彦宏认为,模型之间的差距是多维度的。行业往往更关注理解、生成、逻辑、记忆等能力的差距,但却忽视了成本、推理速度等维度,有些模型虽能达到同样效果,但成本高、推理速度慢,还是不如先进模型。

内部讲话中,李彦宏认为,真正要去衡量大模型能力,应该是在具体应用场景中,看是否能满足用户需求、产生价值增益,这才是最值得被在乎的。

“在大模型时代之前,大家习惯了开源意味着免费、意味着成本低。” 李彦宏举例说,比如开源的Linux,因为已经有了电脑,所以使用Linux是免费的。但这些在大模型时代不成立,大模型推理是很贵的,开源模型也不会送算力,还得自己买设备,无法实现算力的高效利用。

“效率上开源模型是不行的。” 他表示,“ 闭源模型准确讲应该叫商业模型,是无数用户分摊研发成本、分摊推理用的机器资源和GPU,GPU的使用效率是最高的,百度文心大模型3.5、4.0的GPU使用率都达到了90%多。”

李彦宏分析,在教学科研等领域,开源模型是有价值的;但在商业领域,当追求的是效率、效果和最低成本时,开源模型没有优势。

李彦宏还谈及了大模型应用的发展阶段,他认为首先出现的是Copilot,对人进行辅助;接下来是Agent智能体,有一定的自主性,能自主使用工具、反思、自我进化;这种自动化程度再发展,就会变成AI Worker,能独立完成各方面的工作。

当前,智能体已经受到越来越多大模型公司及客户的关注。李彦宏认为,虽然“有很多人看好智能体这个发展方向,但是到今天为止,智能体还不是共识,像百度这样把智能体作为大模型最重要的战略、最重要的发展方向的公司并不多”。

为什么要强调智能体?李彦宏也给出了答案:“智能体的门槛确实很低。”很多人不知道怎么把大模型变成应用,而智能体是一个非常直接、高效、简单的方式,在模型之上构建智能体相当方便。目前,每周都有上万个新的智能体在百度文心智能体平台上被创造出来,智能体的日均分发次数已快速增长至800万次。

责任编辑: 余胜良
声明:证券时报力求信息真实、准确,文章提及内容仅供参考,不构成实质性投资建议,据此操作风险自担
下载“证券时报”官方APP,或关注官方微信公众号,即可随时了解股市动态,洞察政策信息,把握财富机会。
网友评论
登录后可以发言
发送
网友评论仅供其表达个人看法,并不表明证券时报立场
暂无评论
为你推荐
时报热榜
换一换
    热点视频
    换一换