■ 本报评论员 高路
AI谣言有得治了——由国家互联网信息办公室等四部门发布,9月1日起施行的《人工智能生成合成内容标识办法》要求,所有AI生成的文字、图片、视频等内容都要“亮明身份”。
这是治理模式的一次升级。随着人工智能技术的快速发展,AI生成内容已广泛应用于新闻、文学、艺术、娱乐等多个领域。其高效、低成本和强大的生成能力,极大提升了信息生产的效率,但同时也带来了一系列新的问题:AI谣言、AI侵权肆虐。这些行为不仅严重侵害了原创作者的合法权益、伤害了创新精神,也扰乱了内容市场的公平竞争环境,更对信息的真实性以及广大受众的认知判断造成干扰。
“标识办法”的出台,正是为了从源头上治理这一乱象。“标识办法”是强制性的国家标准,未按要求进行标识的,将被视为违规行为。“标识办法”还规定,平台在服务提供者的内容上架或上线时要进行审核,对未标识或疑似生成内容要添加风险提示。从作者和平台两个方面双管齐下,无疑扼住了虚假信息来源和传播的咽喉,从而有效地阻断了虚假信息的扩散。
“标识办法”的推行对平台监管能力建设、监管手段的多样化提出了更高要求。可以肯定的是,造假者不会轻易就范,一定会想出各种办法规避监管。比如,该标的不标;部分内容生产者可能采用“人机混合”的方式生成内容,以图绕过监管。另一方面,还存在真实的内容被误判为AI合成的风险。面对这些新挑战,平台需不断提升技术识别能力,完善审核机制。
互联网社会是建立在信息交换与信任机制之上的,数据的真实性直接关系到网络生态的健康发展。当合成信息与真实信息的边界日益模糊,用户陷入真伪难辨的信息迷雾,带来的不仅是困惑与不安,更可能是对整个网络信任体系的侵蚀。一旦诚信机制崩塌,互联网的信息传播、商业活动乃至社会交往都将受到严重冲击。这一制度设计,不仅是对造假行为的法律约束,更是对真实创作的价值肯定,将对平台的内容展示、运营和利益分配模式产生深远影响。