新闻

人民论坛锐评 | “AI谣言”乱象怎么治

锐评插图(06.10)

近日,借AI造谣燃气涨价的广西网民郑某受到行政处罚;一批传播“AI谣言”的网络账号,被网信部门责令禁言或依法依约关闭;向用户传授如何利用AI“一键去衣”“换脸换身”的账号、公开售卖相关软件的网络店铺,受到网信、公安等部门联动惩治。《人民日报》8月20日刊发的《如何遏制人工智能“说谎”》指出:“AI幻觉”带来“一本正经地胡说八道”。易传播、难防治的“AI谣言”,对政府监管部门、互联网平台、技术研发者以及社会各界提出新挑战,人们禁不住在问:“AI谣言”乱象怎么治?

“造谣一张嘴,辟谣跑断腿。”网络谣言一直是互联网空间的顽疾,AI技术大幅度降低造谣成本,瞬时即可生成逼真的文字、图片、音视频,而“深度伪造”技术让普通网民难以分辨真假。“AI谣言”往往结合推荐算法跨平台传播,通过点击量、广告收益、账号变现获利。其匿名化和跨平台特征,导致责任主体难以追溯,处罚和追责滞后甚至缺位,形成“造谣有利可图”的现实困境。当“真伪难辨”成为常态,一个“假作真时真亦假”的“谣言回音室”形成,网络秩序与公共信任被侵蚀,久而久之将冲击社会价值体系和公序良俗。

防止“AI谣言”,解铃还须“技术”这位系铃人。当下的技术隐患,首先来自虚假、片面和恶意数据混入训练预料,AI产品带着“先天缺陷”输出误导性内容。其次,“AI幻觉”依然存在,在缺乏事实支撑的情况下生成似是而非的内容。此外,人为操控与恶意训练,组织或个人通过定向训练、投喂虚假数据,刻意制造具有煽动性或误导性的定向谣言。

没有技术的防火墙,就难挡虚假的洪水。以技术修补漏洞、用技术反制风险,是遏制“AI谣言”产出的方法。科技公司、内容传播平台,亟须在优化人工智能产品时切实承担责任,在数据源头把控、防护机制建设、内容溯源等方面全力以赴。

对“AI谣言”的问责和防范,不仅需“小而精”的技术性措施,还要依托“大而全”的社会性框架,完善法律规范和部门监管,推动形成多方联动的共治格局,确保在技术、商业和法律层面实现系统性治理。

技术与制度构筑坚实的“外在防线”,人心与认知夯实抵御谣言的“内在堤坝”。防止“AI谣言”,必须以“人”为核心出发点,把“人”作为防止问题之道。当下“AI谣言”的泛滥,一定程度上反映出人类对技术的依赖,甚至反被技术所制约。人工智能技术的性质取决于我们如何使用它,其发展不应摧毁人的主体性。因此,在接受网络信息时,首先要具备清晰的判断力,学会识别和分析信息的真实性,避免陷入信息误区。

须防止“无意识”中助推谣言传播,对算法推荐机制的局限性有所警觉。算法无法筛选真实、有价值的内容,“AI谣言”有可能如漏网之鱼获得流量推荐。要加强甄别,防范因点赞和转发等行为,形成对“AI谣言”传播的助力,及时使用举报工具、善用举报工具。新闻媒体机构在信息核实和素材把关上,也要进一步提升职业素养,逐步推动完善高标准的内容审核机制,避免传播产出不实信息。一旦失误,媒体将成为“AI谣言”的“加速器”,对社会信任和公众安全产生严重影响。

伴随AI技术的高速发展,根治“AI谣言”的乱象,须以技术向善为导向。要用智能的力量,托举起更便捷温暖、更值得信赖的生活图景。