2026年2月下旬,演员王劲松发了一条视频,他没骂人也没哭,只是平静地讲有人用他的脸和声音拍推销视频,里面那个“他”劝别人买理财课,还对着镜头说家里急着用钱,王劲松确认自己根本没录过这些东西,最让他难受的不是被骗走钱,而是看完视频后连他自己也愣住,心想这真的是我吗。
这种事不只出现在明星身上,杭州一家公司去年底被骗走27万,骗子伪造CEO的视频开会,让财务人员转账,鉴定报告显示声纹匹配度达到94%,江苏一位68岁的老人收到一段“女儿”的语音,说车祸住院了,急着打了5.2万元过去,结果发现那是AI合成的,素材来自女儿三年前发在抖音的家庭视频,现在网上有很多“AI明星拜年”视频,剪几段采访内容,换一下嘴型,就能生成祝福语,没人管理这些,也没有人授权。
工具的价格越来越低,操作也变得容易上手,国内一个AI平台的用户数量在2025年突破一亿,其中七成是普通人群,换脸和仿声的功能只需点一下就能完成,成本不到三元钱,B站和小红书上,“秒出明星脸”和“仿声骗过家人”这类教程的播放量加起来超过五亿,一些供应商嘴上说仅供娱乐使用,但暗网上早就有明星声纹库出售,价格从五十到五百元不等,随便搜索一个名字,可能早已被拆解成数据包,等待别人调用。
法律条文看似全面,实际应用时却常常难以发挥作用,《民法典》第1019条明确规定不得擅自使用他人肖像和声音,但现实中造假者常利用境外服务器或匿名账号进行传播,公安部门对此类行为的溯源成功率不到8%,平台虽然能够删除相关链接,却很难彻底封禁违规账号,同一用户换个身份又能继续发布内容,更麻烦的是,关于声音权的司法实践至今没有先例,法院在审理时多以“未营利”或“无直接经济损失”为由驳回起诉,维权者为此奔波劳累,最终往往只能不了了之。
信任在慢慢消失,中科院2025年的调查发现,老年人遇到熟人面孔和熟悉声音的AI冒充时,超过六成的人认不出来,有人接到朋友发来的借钱私信,视频里的动作和神态都像真的,结果把钱转了过去,还有公司高管被AI假扮后开了线上会议,宣布要裁员,员工们信了这件事,一起提交了辞职申请,这些不是少数情况,而是每天都在发生的事。
我看了几个AI教学视频,发现最危险的不是技术有多厉害,而是它太容易使用,你发一条朋友圈,笑一下,说句话,就可能被别人用来复制你的样子,平台不去管,法律跟不上节奏,普通人连自己是谁都快分不清了,王劲松说的那句“连我自己都要犹豫”,其实我们每个人迟早都会问出口。