中国商报(记者 陈文丽)伪造热点事件、捏造名人言论、炮制伪科普、嫁接虚假证据……近年来,随着AI技术的快速发展,利用AI工具合成技术编造谣言,甚至生成逼近真实的图片、音视频,时常出现在人们的生活中,让人难辨真假。此外,还包括利用AI技术催生的黑灰产,这些行为不仅严重扰乱了公共信息秩序,更对社会信任与稳定构成现实威胁。
人工智能时代,利用AI造谣日渐多发。一方面,AI技术的便捷性和低成本,使得造谣者能够轻松地生成大量虚假信息,只需输入相关关键词,AI软件便能自动抓取素材生成文本,并配上虚假的图片,实现谣言的大规模生产。另一方面,利用AI造谣离不开利益的诱惑,不法者的造谣动机主要源于牟取互联网内容平台给予创作者的奖励,以及为一些电商平台经营引流等;一些造谣者可以从广告收入、合同推广、直播带货或其他相关的商业活动中获益。
针对利用AI制作发布谣言、不实信息等乱象,相关部门重拳出击。自今年4月以来,中央网信办开展“清朗·整治AI技术滥用”专项行动,聚焦AI换脸拟声侵犯公众权益、AI内容标识缺失误导公众等AI技术滥用乱象,累计处置违规小程序、应用程序、智能体等AI产品3500余款,清理违法违规信息96万余条,处置账号3700余个,各项工作取得积极进展。
然而,AI技术的迅猛发展,让网络谣言治理面临新的挑战。遏制AI谣言需要多方协同发力,构建起涵盖生成方、传播方与接收方的全链条、全流程治理机制。
网络平台作为信息传播的关键枢纽,应升级现有的信息审核体系,借助AI技术治理AI谣言,利用实时的智能内容识别和过滤系统,对文本、图像、音视频进行自动标注和风险预警,在谣言传播初期实现技术级别的高效拦截;应加强对AI造谣和“水军”行为的智能识别机制研究,进一步改革涉及AI内容的流量分发和收益分成机制,最大限度压缩通过AI造谣牟利的空间,同时完善用户实名认证与信用评价体系,对违规造谣用户采取限制功能、封禁账号等措施。
网络不是法外之地,AI也不是“造谣工具”。相关部门须加速完善相关立法,对模型开发者、服务运营商、内容发布者等各方主体设定明确的审核与合规义务。对因管理不善、审核失职导致谣言传播的技术企业、平台方依法追责,并建立高效、便捷的权益救济和司法响应渠道,为受害者提供明确的法律支持,营造有力的法律威慑。
上一篇:纵深推进AI赋能政采治理