来源:10月22日《新华每日电讯》
作者:新华每日电讯评论员宋瑞 柳媛
有MCN机构利用人工智能程序日产上千篇虚假新闻,导致大量不实信息在网上病毒式传播;某小说平台账号依靠AI“创作”,每日更新十几本电子书,行文却逻辑不通、辞藻空洞;医学论文因使用AI生成的虚假配图而被撤稿……当前,AI生成、伪造或篡改文本、图片、音频和视频的现象越来越普遍,大量粗制滥造、真假难辨的“信息垃圾”,引发了关于“AI污染”的讨论。
去年以来,生成式人工智能在世界范围内掀起一波接一波的热潮,其颠覆性应用让许多行业和网民受益。然而,一块硬币有两面,伴随生成式人工智能而来的也有一些负面问题,由“信息垃圾”导致的“AI污染”越来越突出。
清华大学新闻与传播学院新媒体研究中心今年4月发布的一份研究报告显示,近一年来,经济与企业类AI谣言量增速达99.91%。美国调查机构“新闻守卫”称,生成虚假文章的网站数量自2023年5月以来激增1000%以上,涉及15种语言。一些专家认为,AI制造的“信息垃圾”产量庞大,且辨别难度较大、筛选成本较高。
“AI污染”带来的危害显而易见。“AI污染”会让网民陷入认知幻觉。在某知识分享平台上,看似“上知天文,下晓地理”的AI,生成的内容却空洞生硬。在缺乏批判性思考的情况下,AI快速编织的“知识体系”,一方面可能使人们的思辨能力产生退化,另一方面也可能让人陷入认知幻觉,引发公众认知困惑,进而扭曲公众对现实和科学共识的集体理解,最终让人被AI“牵着走”。尤其对于伴随互联网成长起来的年轻一代,一旦他们的认知被“信息垃圾”所塑造,其后果不堪设想。
“AI污染”会反噬AI产业的发展。众所周知,AI模型的准确性很大程度上取决于训练数据的质量。若AI生成的虚假、垃圾内容“回流”互联网,成为训练AI模型的新数据,这种“垃圾进、垃圾出”的循环模式,或使AI的输出质量断崖式下降,不利于整个AI产业的发展。比如,某互联网企业通过搜索引擎优化,将AI生成的文章优先呈现于搜索结果中,导致用户难以检索到高质量信息,引发用户广泛批评。
此外,“AI污染”还涉及法律、伦理甚至社会稳定等诸多问题。AI制造的虚假内容,或侵犯知识产权、动摇版权规则,也涉嫌侵犯个人隐私、泄露身份信息,且有滥用风险,恐扰乱、操控社会舆论,AI制造的违法行为还会加大社会治理难度。
由此可见,整治互联网“AI污染”势在必行。据中国互联网信息中心发布的第54次《中国互联网络发展状况统计报告》,截至今年6月,我国网民规模近11亿人。互联网构筑着人类生存的新家园,年轻一代已成为网络“原住民”,可以说,整治“AI污染”是打造清朗的网络空间、保障每个网民美好生活的必要行动。
首先,应加大对AI学习和生成机制的源头治理。明确AI平台对源头素材的把控责任和对生成内容的监管责任,完善AI内容生成规则,强制对AI生成内容打上显著标识,提升AI技术的透明度和可解释性。
其二,加强对AI生成内容的筛查监管。有关部门及企业需将监管重点放在对AI生成内容的筛查及审核上,可开发相关的审查算法,规范生成内容向舆论场的流入及传播途径,及时发现并删除低质量或虚假内容。
其三,提高用户对AI生成内容的辨别能力。网民应理性对待互联网信息,增强防范意识和识别能力,可使用反向搜索工具,检查内容来源和作者信息,分析内容的语言和结构特征,从而鉴“伪”鉴“劣”。
网络空间不是乱扔乱堆的“垃圾场”。整治“AI污染”、打造清朗安全的网络家园,需要各部门同抓共管和全社会共同参与。