无缘无故、麻烦就找上门!58岁演员王劲松,终是走了靳东的老路

内地明星 2 0

2026年2月26日,演员王劲松在自己的微博上发了一句话,只有几个字,却充满了震惊和后怕。“太可怕了,视频。声音,口型完全看不出来真假。”他附上的投诉截图显示,这条侵权视频出现在微信视频号上,发布者是一个名叫“CRC数字资产配置导师”的账号。

视频里的“王劲松”穿着白衬衫,背景看起来像某个正式的访谈场合。他面带标志性的温和笑容,语气诚恳地说道:“RWA赛道,将成为未来十年最大的区块链增量市场。”他还呼吁观众一起参与,共享所谓的“下一轮财富时代的崛起机遇”。整个视频流畅自然,如果不事先告知,绝大多数人都会以为这是王劲松本人接的新代言。

王劲松后来透露,这条假视频的原始素材,其实来自他2022年主演的电视剧《冰雨火》的官方宣传片段。原视频本是宣传防毒禁毒的公益内容。不法分子利用AI技术,精准地修改了他的口型,使其与全新的诈骗台词完全匹配,同时还合成了与他本人音色高度相似的声音。这种技术上的逼真度,已经达到了让本人都感到恐惧的程度。

王劲松发现后,第一时间向平台投诉。微信视频号很快下架了那条视频。但事情并没有结束。第二天上午,王劲松发现,同样内容的视频又出现在了另一个公众号上。这篇文章的标题十分夸张,里面不光有“王劲松”,还出现了李连杰、姚明、李亚鹏、于和伟、唐国强等多位名人的AI仿冒形象。这些“明星”都在推荐同一家所谓的“数字金融企业”,该企业声称自己隶属于某知名央企。但实际上,这家央企早在2023年就已公开辟谣,声明与该公司毫无关系。

该公众号文章的阅读量很快超过了3000。直到当天中午,平台才将其屏蔽。王劲松的担忧远不止于自己的肖像被盗用。他在评论中表示,以前也看到过类似的AI伪造内容,但制作粗糙,一眼就能识破。而这次的技术水平完全不同,这让他非常担心,如此逼真的伪造技术如果被大规模用于电信诈骗,后果将不堪设想。

事实上,王劲松的遭遇并非孤例。他几乎是步了另一位演员靳东的后尘。靳东被AI仿冒困扰的时间更长,情况甚至更加令人揪心。作为拥有大量中老年粉丝的“国民演员”,靳东的形象被骗子盯上,成为了情感诈骗的工具。

有媒体报道过这样一个案例。江西一位独居的老人,在短视频平台上频繁刷到一个“靳东”的账号。视频里的“靳东”通过AI合成的形象和声音,对老人说着温柔体贴的话,甚至进行“表白”。在获取老人信任后,“靳东”声称自己拍戏需要资金周转,希望老人能贷款200万元支持他。老人深信不疑,执意前往银行办理贷款。幸好银行工作人员察觉异常,报警后,在民警和家属的反复劝说下,老人才意识到自己遭遇了骗局。

类似的案例不止一桩。上海一位六十多岁的阿姨,也是“假靳东”的受害者,她在短短时间内向骗子转账了约20万元,直到被骗光积蓄才幡然醒悟。这些骗局的套路如出一辙:利用AI换脸和拟声技术,伪造明星的亲密视频,针对信息辨别能力较弱的中老年群体实施“情感诈骗”和“投资诈骗”。

尽管靳东工作室早在六年前就发布声明,强调靳东未开通任何个人短视频账号,并对侵权行为依法追责,但假冒账号和诈骗视频依然像野草一样,封禁一批,又冒出一批。2025年3月,作为全国政协委员的靳东在政协小组讨论上专门谈及此事,他语气沉重地表示:“一些喜欢我影视剧的观众,被AI换脸视频骗得很惨,这个性质非常恶劣。希望能建立更好的规则。”当时或许还有人觉得这是个别现象,但王劲松在2026年的遭遇,恰恰印证了靳东的担忧正在成为普遍的现实。

除了他们两位,还有更多明星深陷AI仿冒的泥潭。演员温峥嵘曾发现自己被“分身”了。多个电商直播平台上,出现了许多使用她形象的直播间。这些直播间里的“温峥嵘”穿着不同的衣服,卖着各式各样的化妆品,话术却大同小异。真的温峥嵘有一次拍戏到凌晨,回家后刷手机,竟然刷到了“自己”在直播卖货。她气愤地进入直播间质问:“你是温峥嵘,我是谁?”结果对方瞬间将她拉黑。温峥嵘无奈地感叹:“我现在就很难证明我是我。”她的团队一度每天要举报几十个假冒账号,但封禁速度远远赶不上新账号产生的速度。

2025年3月,古天乐和林峯的经纪公司也曾同一天发布严正声明。当时有线上游戏平台使用AI技术,将两人的影视片段拼凑合成,制作了一段带有赌博性质的代言宣传片。假视频中的“古天乐”甚至模仿了他特有的“港普”口音。不过当时的合成技术可能还不够成熟,视频中人物的嘴型显得比较僵硬,能被网友看出破绽。

那么,制作这样一条以假乱真的AI明星视频,到底难不难呢?记者调查发现,对于普通用户来说,使用常见的AI视频工具想达到“王劲松视频”那种逼真程度,并不容易,这需要一定的技术门槛。但是,市场上已经形成了一个灰色的产业链。在电商平台上,可以轻易找到提供“AI影音修改”服务的店铺。这些店铺明码标价,支持“拿名人视频换成别的话和口型”,并且可以做到让生成的视频不显示“AI生成”的标识。根据时长和难度,修改一分钟视频的报价在130元到400元不等。有店铺的此类服务销量已经超过1000件。

这意味着,即便自己不会技术,只要花上几百块钱,就能让一个明星在视频里说任何你想让他说的话。技术的便捷和低成本,使得侵权变得空前容易。而平台的审核机制,在面对这种海量且快速变化的侵权内容时,常常力不从心。造假者会专门选择凌晨等审核可能松懈的时段发布视频,或者一个账号被封后,立刻换一个“马甲”重新上传。

从法律层面看,这种行为的定性是清晰的。法律专家指出,未经明星本人许可,利用AI技术盗用其肖像和声音用于商业推广,首先侵犯了肖像权。如果盗用的声音具有可识别性,同样侵犯了声音权。此外,将明星与涉嫌诈骗的非法规项目绑定,还可能损害其名誉权。而制作、发布此类视频的推广方,如果其推广的项目本身是诈骗或非法集资,那么还可能构成诈骗罪或非法吸收公众存款罪的共犯。

《中华人民共和国民法典》第一千零二十三条规定,对自然人声音的保护,参照适用肖像权保护的有关规定。司法实践中也已经有了判例。2025年8月,北京互联网法院审理了一起案件,某文化传媒公司使用AI合成了与一位教育界人士高度相似的声音用于卖书,被法院判定侵犯了该人士的肖像权和声音权,判决其赔礼道歉并赔偿经济损失12万元。更早还有“全国首例AI声音侵权案”,配音师殷女士的声音被做成AI产品销售,最终涉案公司被判赔偿25万元。

尽管法律条文存在,判例也有,但维权之路依然艰难。最大的难点在于“发现难”和“追责难”。侵权视频散布在各个平台,数量庞大,明星本人很难全部监控到。即便投诉成功,平台通常也只是下架具体视频或封禁账号,而隐藏在背后的制作者和委托方很难被找到,他们几乎不用付出实质性的法律代价。这种低成本、高收益的侵权模式,让不法分子有恃无恐。

平台方面也承认存在挑战。有平台高管曾公开表示,AI内容侵权识别是行业性技术难题,恶意仿冒账号在不断进行“技术对抗”。目前,一些平台开始尝试对AI生成内容进行标识,例如加上“AI生成”的小字,但标识往往不够明显,有时甚至不会显示,对于防范诈骗的作用有限。

这种乱象的受害者早已不限于明星。最高人民法院在2026年2月26日发布的一起典型案例显示,有诈骗分子针对独居老人,利用AI拟声技术模拟其孙子的声音,制造紧急情况实施诈骗。因为老人转账不便,骗子甚至安排了线下人员上门收取现金。此案中的线下取款人员最终以诈骗罪共犯被判刑。这个案例清晰地表明,AI伪造技术已经渗透到针对普通人的精准诈骗中,危害着每一个人的财产安全和家庭安宁。

当银行柜员开始在培训中强调“凡是视频里有人突然要钱,哪怕像亲爹,也得挂电话当面确认”时,当人们看到一段逼真的视频第一反应是怀疑其真实性时,一种更深层的信任危机正在社会中蔓延。技术本身没有善恶,但如何使用技术,却考验着社会的法治水平、平台的责任和每个人的辨别力。王劲松的那句“太可怕了”,不仅仅是一个明星的个体感受,也道出了数字时代许多人心中隐隐的不安。