雷军。资料图
3月4日,全国人大代表雷军的建议上了热搜头条,其中讨论度最高的是他提出加强“AI换脸拟声”违法侵权治理的建议。
雷军表示,“AI换脸拟声”不当滥用造成了违法侵权行为的重灾区,易引发侵犯肖像权、侵犯公民个人信息以及诈骗等犯罪行为,甚至造成难以挽回的大规模形象和声誉损害,带来社会治理等风险。AI深度合成技术所需素材获取便利、技术使用门槛低、侵权主体及其手段隐蔽性强等特点,给治理带来较大挑战。
应该说,这个建议回应了社会关切的热点。现在随着AI技术的发展,“AI换脸拟声”主要在两方面会产生较大风险,一类是电信诈骗,利用生成的视频和声音,假冒他人进行诈骗。另一类,是生成色情内容,并进行传播,损害公民声誉。
解决办法,也正如雷军所说,加快单行法立法进程,在安全与发展并重的基础上提升立法位阶;其次,强化行业自律共治,压实平台企业等各方的责任和义务;最后,加大普法宣传的广度力度,增强民众的警惕性和鉴别力。
监管是必要的,但如何监管,却需要循着专业、理性、科学、宽容的范式去进行。
对于生成式AI的监管,首先要分清楚创作内容和传播内容的区别。AI根据用户意图进行内容的生成,虽然具有智能化的特征,但本质仍然是工具。AI生成的内容,不像网页那样面向大规模受众,而是仅面向一个用户。
当用户用Word写文章,或者用Photoshop创作内容的时候,这些软件并不会限制用户的创作。但是,如果用户把这些内容进行传播的时候,已经有明确的法律法规进行监管。这就意味着,以前法律并不监管创作层面,或者单个的私人活动层面,但如果对于AI的监管直接降低到了创作层面,那么也会在一定程度上加大AI行业的合规成本。
如果要求AI对他人利用AI自行生成的文本、图像、声音承担作为“内容生产者的责任”,这就相当于把监管不是放在网站层面,而是放在了Word、输入法、Photoshop层面,要求这些公司对最终发布的内容负责。显然,微软、金山、搜狗、Adobe等都做不到这一点。
具体到换脸拟声这一项上,对于某一类的换脸拟声,AI是无法区别恶意还是善意的,是想着损害他人声誉,还是只是自己使用,那么,就只能是完全封禁。而且,应该看到的是,随着以DeepSeek为代表的高性价比人工智能技术路线的出现,私人部署的价格已经降低到200万元,如果再容忍生成内容的速度慢一些,这个价格还可以进一步降低到50万元。也就是说,AI算力越来越出现分散化、私人化的趋势。这就意味着监管是不对称的,越是大型的AI厂商,受到的监管越大,小型厂商或者私人部署反而受到的监管约束较小,可能会让一些不法分子利用“AI换脸拟声”进行的违法活动得到规避。一些电诈分子或想着损害他人声誉的人,如果使用国外的生成式AI工具,那么国内如果仅仅对相关工具进行监管,对他们可能不会有太大影响。
用户可以、也应该对产生的内容负责,那么,相应的监管就应该放到传播层面,在平台上进行中游式监管,这更合乎逻辑,而不是对生成式人工智能服务者和供应商提出过高的合规义务。
总之,任何技术带来好处的同时,都必然伴随内生的、不可剔除的风险。AI技术也是如此。大语言模式、多模态生成式AI,都会同时伴随一些负面问题。所以,一方面需要加强防范和监管,另一方面也应该考虑如何在精细化地管理内生风险的同时,为新技术创造安全的成长空间。