凌晨两点,一个女孩惊恐地看着手机屏幕,那里正在播放一段她从未录制过的视频。视频中,她穿着从未有过的衣服,在一个陌生的房间里做着从未做过的事,但那张脸,分明就是她自己。
这不是什么超现实噩梦,而是杭州一位普通大学生在社交媒体上发现的“AI换脸”视频。她的脸,不知何时被“移植”到了色情影片的主角身上。这个夜晚,她的人生被一段伪造的视频彻底撕裂。
就在2026年3月,演员迪丽热巴起诉某平台播出短剧利用AI换脸技术盗用其肖像牟利一事有了最新进展。据北京互联网法院消息,法院认定,短剧制作方擅自使用深度合成技术生成与某演员高度相似的形象,侵害其肖像权。同日,杨紫工作室发文,针对某作品未经授权,利用AI换脸、深度合成等技术擅自使用杨紫女士肖像制作并传播视频内容的行为,将“追究到底”。
但这些诉讼背后,一个更隐蔽、更广泛的问题正在蔓延:如果连明星的肖像都难以保全,普通人的脸,又能在数字海洋中躲藏多久?
虚拟演员肖像权授权——光鲜背后的模糊地带
在短视频平台上,一个被称为“耀客AI演员”的虚拟形象火了。他不是明星,却长着一张让人既熟悉又陌生的脸——网友评价“一张脸上人山人海”。这个AI生成的虚拟演员,被指融合了多位明星的面部特征,让人隐约能辨认出张若昀、王一博等当红艺人的影子,却又没有完全复制任何一人。
这正揭示了当前AI虚拟演员产业最核心的灰色地带:缝合式授权。
北京航空航天大学法学院副教授王琦指出,判断AI数字艺人是否侵犯肖像权,关键在于能不能够从数字人的形象识别出来真人。这个识别要综合外表的基本形象、发型、衣服、气质、话语、出现的场景,还有用了什么样的姓名等多种因素。只要AI数字艺人的形象能让公众稳定识别出特定真人,无论是否刻意复刻,都可能涉嫌侵权。
但在实践中,制作方往往采取更为隐蔽的策略。有业内人士透露,目前存在一种“低成本侵权产业链”:AI短剧单集成本不足真人片酬10%,催生“融脸引流-流量变现”灰色模式。为了规避法律风险,制作方会刻意融合多位明星特征,增加单一主体追责难度。一位不愿具名的AI短片导演坦言:“我们训练模型时,会同时喂入几十位明星的照片,让AI学习‘好看’的面部特征,但不会完全复制任何一个人。这样生成的虚拟演员,既好看又‘安全’。”
这种看似规避了法律红线的做法,实际上触及了更深层的法律困境。根据《民法典》相关规定,自然人依法享有肖像权,任何组织和个人不得以信息技术伪造等方式侵害他人肖像权。将AI换脸技术用于商业用途,属于典型的伪造肖像侵权行为。律师张起淮明确指出,从法律层面来看,制作方未经许可,借助AI技术复刻艺人面部特征并用于短剧盈利,并非正常的技术应用,而是多重权利的叠加侵权。
更令人担忧的是,对于普通人而言,这种风险来得悄无声息。许多社交平台的用户协议中,藏着用户可能从未细读过的条款——你上传的照片,可能已被默认为平台训练AI模型的“养料”。
深度伪造滥用——从色情视频到诈骗,普通人防不胜防
2017年,在美国社交媒体平台Reddit上,一位名叫“Deepfakes”的用户发布了用GAN技术制作的明星换脸色情视频,不仅让“深度伪造”一词正式走入公众视野,更直接催生了非自愿色情合成的黑色产业。从那时起,技术的潘多拉魔盒就被打开了。
但今天,深度伪造的受害者已不仅仅是明星。2024年8月,韩国Telegram平台爆发大规模深度伪造色情丑闻,多个聊天群制作传播未成年人深度伪造色情内容,受害者覆盖百余所中小学及国际学校,总数达22万人,引发全国性抗议浪潮。在国内,2026年1月江苏高院公布的“王某甲诽谤案”中,王某甲在2024年—2025年之间,用AI换脸技术合成他人不雅图片,编造虚假话题在境外网站散布,还放任内容转发至被害人工作群,最终因诽谤罪被判处有期徒刑1年3个月。
普通人的脸,正成为不法分子最易得手的“犯罪工具”。诈骗领域,深度伪造的作案手段不断升级,涉案金额屡创新高。
2019年,首个重大深度伪造音频诈骗案爆发,诈骗者利用AI技术模仿德国母公司CEO声音,致电英国能源公司高管,成功骗取24.3万美元。2024年2月,中国香港发生涉案金额达2500万美元的视频会议诈骗案,诈骗者通过深度伪造公司CFO形象,在远程会议中指令员工转账,刷新此类诈骗金额纪录,倒逼企业强化远程办公身份核验机制。
为什么普通人更容易成为目标?心理弱点正被精准利用。当你的父母在深夜接到“你”的求救电话,电话那头是“你”的声音在哭泣:“爸,妈,我被绑架了,他们要50万,不交钱就撕票……”即使理性告诉他们这可能是骗局,但父母之爱往往让他们失去判断力。更可怕的是,现在的AI不仅能模仿声音,还能生成视频——屏幕上出现的,正是你“被绑架”的画面。
社交平台公开照片的易获取性,成了这一切的起点。一张普通的自拍,经过AI分析,能生成各种表情、各种角度的动态视频。那些你认为“无害”的照片分享,可能正为骗子提供了全套“作案材料”。
自我保护指南——如何守住你的“数字面孔”
“市民应尽量选择有明确运营主体、隐私政策清晰、口碑良好的AI人像生成工具,避免使用来源不明的App。”网络安全专家温勤提醒,部分工具可能会将用户上传的人脸照片出售给第三方,需提高警惕。
预防措施的第一步,是重新审视你在社交平台上的隐私设置。这不仅仅是“设置为私密”那么简单。
你需要建立自己的社交平台隐私检查清单:关闭照片公开下载权限,限制朋友标签权限,定期清理已发布照片中的敏感信息。特别要注意的是,避免在同一平台上传过多同一角度的照片,这些照片组合起来,会成为AI训练的完美数据集。
警惕那些需要“人脸识别”授权的APP。在授权前,仔细阅读协议,特别是关于照片使用范围、保存期限、是否用于模型训练、是否会公开展示等条款。对于可关闭的“作品公开”“数据共享”等权限,要及时关闭。部分APP会在用户协议中,以极小的字体、极其晦涩的语言,授权自己可以使用用户上传的内容进行“机器学习”或“算法优化”——这往往意味着,你的脸可能成为它们训练模型的一部分。
一旦发现侵权行为,证据固定比愤怒更重要。从维权角度看,应当优先完成以下工作:完整保存侵权内容原始状态,包括视频、音频、页面链接、发布时间、传播账号及评论情况;保存能够证明“被指向性”的材料,例如他人将内容与本人对应的评论、私信,或平台推荐标签等。
维权路径上,平台举报是最快捷的方式。多数社交平台都有侵权投诉流程,虽然处理速度可能不尽如人意,但这是成本最低的维权路径。如果平台处理不力或侵权行为严重,法律途径是最终保障。根据《民法典》第1019条规定,任何组织或者个人不得以丑化、污损,或者利用信息技术手段伪造等方式侵害他人的肖像权。未经肖像权人同意,不得制作、使用、公开肖像权人的肖像。
律师提醒,在涉及AI换脸、AI配音的纠纷中,维权的第一步并非讨论技术本身,而是判断一个核心问题:相关内容是否足以让不特定公众识别出具体个人。只要通过面部特征、声音特征、言行习惯等综合因素,足以使一般公众将AI生成内容与某一自然人建立稳定对应关系,即可能触及人格权益保护的范畴。
在AI时代重新定义“面孔主权”
技术正在以惊人的速度迭代,而法律、伦理和社会认知,却往往跟不上它的脚步。2025年2月生效的欧盟《人工智能法案》明确规定,“对公众安全、基本权利构成明显威胁的AI用途应被禁止”,但这份法案从诞生起就带着“时差”——2023年立法谈判时,没人能料到AI脱衣技术会以如此“直观且广泛”的方式滥用。
爱尔兰议员迈克尔·麦克纳马拉的话一针见血:“我们当时设想的‘威胁’,是自动驾驶事故、金融诈骗,没人想到有人会用AI把邻居的照片‘扒光’发到网上。”
这种“预见盲区”,正是当前监管面临的普遍困境。不过,技术也在自我进化中寻找解决方案。全球范围内,AI内容强制加水印、区块链数字水印、AI鉴伪工具等技术正在发展中。2026年2月,中美欧同时宣布:AI生成内容必须强制加水印,图像、视频、音频、文本全覆盖,来源可追溯、造假难藏身。这意味着,以后AI换脸、AI造谣、AI侵权都会留下痕迹,再也不能肆无忌惮。
但这些技术手段只是工具,真正的防线,建立在每个人的数字素养之上。在这个任何人都可能成为“数字素材”的时代,我们需要重新学习如何保护自己最基础的身份标识——那张伴随我们一生的脸。
当你在社交平台上传下一张照片时,不妨停顿三秒,问问自己:这张照片,五年后还会是我愿意分享的吗?如果它被别人用来生成我从未做过的事的视频,我能接受吗?
你的脸,不应该成为别人随意取用的数字资产。在AI能轻易复制一切的今天,守住“面孔主权”,或许是我们在这个数字时代需要学会的第一课。
你担心过自己的照片被别人用来做AI换脸视频吗?