潮新闻客户端 评论员 王彬

相关平台截图
据红星新闻报道,3 月 3 日全国政协委员、四川大学华西医院教授甘华田接受媒体采访时称,今年全国两会期间,他拟提出加强对 AI 生成虚假信息治理的建议。
甘华田表示,近些年,通过 AI 技术深度伪造视频、政府公告、企业声明、名人言论、虚假金融信息等行为,已严重干扰了公众的判断,损害了社会的公信力和稳定。这类虚假信息不仅误导消费者,还可能对社会秩序、国家安全甚至人民群众的生命财产安全构成威胁。我国现行法律对 AI 生成内容的监管责任界定模糊,相关法律滞后,平台审核技术能力不足,违法成本低,治理难度大。因此,加强对 AI 生成虚假信息的治理和打击力度,已成为当前亟待解决的问题。
AI 生成虚假信息泛滥,现实危害性正在显现,且可能会超出我们的想象,这并非是危言耸听。
就在今天,有网友发现一个视频号发了很多演员刘晓庆的视频,并怀疑相关视频由 AI 生成,刘晓庆回应称:" 画面是我,声音很像我,但不是我!这是怎么做到的?大家以后不会搞不清楚哪个才是真的我了吧?" 按照目前信息技术的发展速度,刘晓庆的担忧,很可能在未来某一天成为现实。现在连这个 AI 假冒的刘晓庆,都有很多网友相信是真的,将来如到了真假难辨的时候,对社会公共利益的刺痛,只会进一步放大。而这,只是 AI 生成虚假信息的 " 冰山一角 "。
在现在的舆论场上,不少谣言的背后,都不乏 "AI" 的身影。比如,前一阵子 "80 后死亡率突破 5.2%" 的假数据、假消息,据专家溯源,最初来源很可能是和 AI 的对话所得。
对于 AI 生成的虚假消息,有一种情况尤其需要警惕,那就是在没有任何人为因素干扰的情况下,AI 自己会 " 一本正经地胡说八道 ",拼凑、嫁接甚至编造事实,这种现象被称为 "AI 幻觉 "。从目前已经出现的几个案例看,"AI 幻觉 " 隐蔽性、迷惑性极强,让人猝不及防、防不胜防,很难避免 " 中弹 "。理论上,我们每一个人都可能被 "AI 幻觉 " 蒙骗,甚至无意识中成为助推 "AI 幻觉 " 相关内容进一步传播的 " 帮凶 "。
更让人头痛的是,AI 生成的虚假信息,现在很容易出现在大众的视野里,对相关信息审核把关的层层失守,就成了摆在明面上的问题。"AI 幻觉 " 分辨门槛确实比较高,但现在的事实是,很多 " 一眼假 " 的 AI 生成的虚假信息,也堂而皇之地出现在一些社交媒体平台的显眼位置,甚至还登上了某些平台的热搜榜。
虽说公众没有那么容易被这些信息所蒙骗,但虚假信息如此占据公共舆论资源,也是一种资源浪费和信息污染,若任由其滋生,消极后果不可小觑。这进一步佐证,AI 生成的虚假信息能在网络上无孔不入,与把关的缺失,脱不了干系。
AI 生成的虚假信息,无论是 " 一眼假 " 型,还是 " 难分辨 " 型,都不应该在互联网上泛滥。对于这些信息,关口不能失守,这是社会的底线和共识。而实现这一点,就需要从法律、制度和具体监管层面发力,炼就一双 " 火眼金睛 ",更好识别和治理这些虚假信息。
甘华田教授所建议的 " 推动专项立法,加快制定针对 AI 生成虚假信息的专项法律法规,明确 AI 生成内容的‘全生命周期’责任,包括开发者、使用者和运营者的法律责任和义务 "" 研发更加先进的人工智能算法,提高其对信息的识别和判断能力 "" 设立专门的监管机构,负责对 AI 产品和服务进行审查和监督,确保其符合法律法规和道德规范 " 等,都很有建设性,若能尽快落地为现实,那显然有助于阻止 AI 生成虚假信息进一步在社会上泛滥,更好防范 "AI 作恶 "。
AI 本质是工具,工具都有两面性,关键在于 " 人怎么用 "。人机交互时代,人类要牢牢把握住主动权,避免被 AI 反噬,一个基本原则是 " 以人为本,智能向善 "。更得认识到,在 AI 发展日新月异的当下,让 "AI 治理 " 先走一步,跑赢 "AI 作恶 ",已经刻不容缓。
发表评论