2026年2月26日,演员王劲松在社交平台上发了一组截图,他发现有人用AI技术把他做进了一段视频里,画面中他没有张嘴,但声音、口型、表情都和真人一模一样,连他家里人看了都愣了一下,说这真是他。
这段视频在微信视频号上出现后,他立刻提交了投诉,还把证据截图公开出来,平台后来删掉了内容,但没说明是谁发的,也没提后续怎么处理,他没讲自己有没有报警或者起诉,只强调现在AI已经能同步声音、嘴动和微表情,不是简单的换脸技术了。
以前的AI换脸只能把脸部图像贴到别人身体上,动作显得很僵硬,现在只需要在网上找几段他的采访视频,算法就能学会他说话时的节奏,嘴角怎么抽动,眉毛怎么挑起,工具也变得便宜了,用手机APP就能生成效果,普通人点几下就能完成。
微信视频号每天流量特别大,但系统没法自动认出这是AI做的东西,王劲松得自己去找投诉入口,还要截图当证据,平台没有专门处理AI侵权的通道,也没有预警功能,这就好比大门敞开着,等贼进来了才喊一嗓子。
法律上有肖像权保护的规定,可AI生成的假王劲松图像算不算侵犯肖像权呢,法院以前判过这类案件,但标准不太一致,加上取证很困难,成本又高,最后赔的钱经常连请律师都不够,所以干坏事的人基本没什么好怕的。
最近这类事情发生得挺多,1月浙江有公司财务听到一个冒充老板的声音,就把278万元转了出去,2月深圳一位老人接到自称是孙子的求救电话,也转了15万元,王劲松这次的情况,更像是为这些诈骗行为铺路——名人的声音和形象一旦被收集整理,就成了犯罪者手里的语音包和脸模库。
有人觉得用好AI能拍出老电影,保存逝者的影像,这事挺有意义,但也有人担心,要是不强制加水印,不规定必须标上“AI生成”这几个字,那些看起来特别真实的视频背后,可能就藏着陷阱,欧盟那边已经开始行动了,我们这边还迟迟没有动静。
王劲松没有多谈下一步计划,但他发出这个视频,就相当于在提醒大家,普通人刷到这类内容,往往难以分辨真假,技术跑得飞快,可规则却还停留在原地。