演员王劲松称个人形象被盗用。 (来源:微博)
近日,王劲松、唐国强等多位演员形象接连被不法分子盗用,通过AI换脸制作成虚假理财视频,在网络大肆传播。此类现象背后反映出一个现实的社会问题:技术飞速进步的今天,一旦AI沦为犯罪工具,公众该如何防范?说到底,平台对AI内容的识别与鉴定能力,理应同步发展。
《人工智能生成合成内容标识办法》明确要求,AI生成内容应添加显式标识,这让不少人认为,既然AI内容自带数字水印,监管和识别应该不成问题。可现实仍存漏洞,网上各类低成本去水印教程操作简单,显性水印能通过剪辑、裁剪、画面调整直接去除;而文件底层的隐性溯源代码,也能通过二次压缩、转换格式、微调参数等手段被消除。只要内容上传者存心规避,就能通过各类技术手段让AI标识隐身,不仅普通用户难以识别,就连不少资深AI博主、行业从业者也难辨真伪。
由此引发的乱象,早已渗透到社会生活方方面面。在电商领域,有不法分子使用AI伪造瑕疵图片,恶意骗取仅退款;在金融民生领域,AI换脸用于电诈,导致用户受骗;在舆论场中,AI生成内容不再受限,给网络辟谣工作带来阻碍。这些乱象背后,暴露了内容发布平台防护与监管能力的短板。
因此,平台必须在管理和技术上同步升级。实际上,法律早已对平台提出明确要求。《中华人民共和国民法典》规定,网络服务提供者知道或者应当知道,网络用户利用其网络服务侵害他人民事权益,未采取必要措施的,与该网络用户承担连带责任。其中,“应当知道”这一表述,意味着平台不能以不知情为由逃避监管,反而要主动承担更多注意义务。
更为关键的是,AI生成的内容本有独特的“身份标识”,平台识别与校验该标识的能力亟需进一步提升。随着AI造假技术不断升级、去标识手段日趋成熟,部分平台若仍停留在看标签、查水印的浅层审核阶段,识别鉴定技术未能与时俱进的话,便极易沦为违规内容大肆传播的温床。
如何做到有效规避与辨别?平台要完善全流程审核机制,加强对高度仿真、无合法标识、来源不明内容的拦截与复核。同时,平台还应加大整治力度,重点处置用于规避AI标识监管的教程与链接,从传播环节压缩AI造假的生存空间。
明星形象遭AI滥用,看似是肖像权被侵害的个案,实则是AI水印失效、标识制度难落地、平台识别能力不足等真实社会问题。唯有让识别鉴定技术跟得上AI生成技术的发展步伐,AI才能在规范安全的轨道上,真正服务公众、造福社会。
信网评论员 王熠冉