耗时几十个小时绘制的图画、手敲了一下午的剧本,都成了“疑似AI合成”?据报道,随着AI广泛应用,一些“真人创作者”也面临窘境:自己发布的内容被平台误判为AI生成,并可能因此遭遇限流甚至下架。
给相关作品添加AI标识,是互联网平台治理AI应用乱象的重要方式。不过“是否AI”,又是如何判定的?目前普遍采用的策略是“用AI对抗AI”,多数审核工作由机器完成。既然是拿AI来检测,那出现误判就不难理解了。要知道,AI大模型虽已取得高速发展,但“AI幻觉”等技术缺陷迟迟未能得到有效解决。许多大模型其实并不能完全理解人类或严肃认真、或天马行空的多元表达方式。规规矩矩的文章,在它眼中成了“AI式标准答案”;行文思路跳脱,却可能被当成“不合逻辑”。
面对海量信息,检测当然需要技术加持,但作品是不是原创,最终不能全由AI说了算。现实中,为了降低成本或过度迷信AI检测结果,导致人工复核形同虚设的现象不少。加之一些平台用于训练AI检测系统的数据集也难言全面、准确。种种情况叠加,误判的几率大幅增加。
AI误判绝非小事。作为创作者,原创被贴上AI标签难免闹心,平台曝光、创作收益都会受到影响,甚至发都发不出去,直接打击创作积极性。况且原创内容被标注成AI,那AI生成的内容是否反而有机会逃过检测系统?长此以往,原创内容少了、AI注水多了,真真假假、虚虚实实,良好的平台生态也难以为继。
AI误判看似是技术问题,背后还是看人怎么处理。减少误判,除了通过不断迭代让AI“耳聪目明”外,关键是让AI当助理裁判,而不是主裁。平台要畅通人工复核渠道,让用户申诉有门,不能“初审即终审”“一棍子打死”。用户也得多留个心眼,在创作过程中留存创作证据,如遇AI误判,积极与平台沟通申诉。不断指出AI的错误,大模型也能得以校正。
“君子使物,不为物使”。完善机制、放大技术之“善”,AI检测才能发挥正向功用,真正成为原创的保护伞。
来源:北京日报客户端