一组密集的明星维权声明在2026年4月掀起了娱乐圈的风暴。4月6日,演员龚俊工作室发布严正声明,称采用AI合成等技术使用龚俊肖像制作剧集的行为构成侵权,正告涉及侵权内容的网络平台及用户立即停止传播、下架相关视频。同日,演员邓为和张婧仪工作室均发布声明。邓为工作室称,部分网络平台出现未经授权使用邓为肖像内容制作的短视频作品,针对侵权行为将依法追究法律责任并敦促平台及用户立即停止传播、下架相关视频。
这场维权风暴背后,是国家广播电视总局2026年1月开展的为期一个月的专项治理工作,重点清理基于四大名著、历史题材、革命题材、英模人物等经典电视剧作品进行“AI魔改”的违规视频。专项治理工作共清理相关违规视频23000余条、处置违规账号100余个,有效遏制违规视频蔓延的不良态势。截至3月31日,主要网络视听平台已清理违规视频近29000条、处置违规账号40余个。
在这个AI能以假乱真的时代,什么才是“真实”?当技术可以轻易窃取一张脸,我们是否还能相信镜头前的影像?此刻,一组杨钰莹无滤镜生活照在网络上的悄然流传,恰好为这个技术迷雾中的时代提供了一个珍贵而朴实的“真实性锚点”。
风暴中心:AI“盗脸”短剧的产业链与危害
在张婧仪工作室的声明中,揭露了部分网络短剧通过AI换脸技术,将张婧仪的肖像融合至剧中角色的侵权事实。例如《步步倾心》从第7集起女主角形象与张婧仪高度相似,观众误认为其本人出演,剧集热度达3253万。侵权方利用AI合成技术生成视频,标注“AI生成”“内容虚构”等字样,但未获张婧仪及工作室授权,且部分剧情涉负面角色,对其公众形象造成损害。
这种侵权行为呈现出低成本、批量化的特征。据媒体报道,AI短剧制作成本极低,曾有报道称4人团队5天可量产80集,成本约3000–5000元,侵权方通过“下架换壳”“谐音改名”等手段规避监管,挤压演员生存空间。虽然《霍去病》制作团队后来澄清称3000元成本仅是算力成本,团队有近20人而非3人,作品也没有80集而是两条短片,但AI短剧的低成本特性已被业界广泛认知。
对明星而言,这种侵权带来的危害是多重的。形象被滥用、扭曲,商业价值与名誉受损。当艺人形象被植入负面剧情,可能同时侵犯名誉权;若以营利为目的且收益超5万元,还可能触犯《刑法》诈骗罪。对行业而言,这破坏了内容创作秩序,侵蚀影视行业肖像权根基。对公众而言,则混淆视听,损害信息真实性环境。
技术透视:AI如何“偷走”一张脸,以及为何“真实”变得可贵
AI换脸过程主要包括人脸识别追踪、面部特征提取、人脸变换融合、背景环境渲染、图像与音频合成等几个关键步骤。其背后最核心的包括为三个部分:首先,利用深度学习算法精准地识别视频中的人脸图像,并提取出如眼睛、鼻子、嘴巴等关键面部特征;其次,将这些特征与目标人脸图像进行匹配、替换、融合;最后,通过背景环境渲染并添加合成后的声音,生成逼真度较高的虚假换脸视频。
然而,当前AI生成面孔在细节上仍存在“阿喀琉斯之踵”。普通的AI人像都长着一副标准的AI脸:皮肤光滑得像剥了壳的鸡蛋,光线完美得像影楼的廉价布光,眼神空洞得像商场里的塑料模特。真实的人类皮肤是有肌理、瑕疵、毛孔、细纹、雀斑、甚至微微的油脂感,这些不是缺点,而是生命的证据。
杨钰莹在家的素颜照,恰好展现了AI难以复制的“生命痕迹”。照片中的她没有华丽的妆容,没有滤镜的修饰,黝黑的脸蛋和明显的皱纹一览无余。这些皱纹见证了时间的流逝,也见证了人生的沉淀与积累。在另一组无美颜滤镜的照片中,杨钰莹穿着牛仔外套和牛仔短裤,搭配一头自然披肩的乌黑长发,皮肤白皙、面容光滑,几乎没有皱纹。这种自然状态下的皮肤质感,与AI生成的“蜡像皮肤”形成了鲜明对比。
专业人士指出,真实感皮肤在于“不完美”,需要自然皮肤纹理、超写实皮肤细节、可见毛孔、轻微雀斑、起鸡皮疙瘩、眼角自然细纹、细腻绒毛、细微的油性高光、轻微肤色不均、微瑕疵等元素。在布光时,摄影师会利用侧逆光去强调皮肤的质感。而AI常将双眼高光置于完全对称位置,虹膜呈现规则同心圆或网格状伪影,且缺乏巩膜血丝与泪膜反光层次。
杨钰莹无滤镜照的“反AI”价值正在于此。它作为“真实基准”,展现了自然的光影过渡、清晰的皮肤纹理、柔和的表情纹路等细节,这些正是当前AI难以完美复制的“生命痕迹”。在滤镜和AI修图泛滥的语境下,这种未经技术中介的“真实感”本身成为一种稀缺品和信任锚点,唤起观众对天然、本真人像的情感共鸣与技术反思。
伦理与法理:维权之路与未竟之问
明星维权的法律依据主要来自《民法典》第1019条,任何组织或个人未经许可不得利用信息技术伪造、制作、使用或公开他人肖像。AI换脸、生成虚假形象等行为,若公众能识别特定自然人(如面部特征、姿态等),即构成侵权。北京互联网法院在迪丽热巴维权案中明确:剧中角色面部轮廓、五官特征与原告高度相似,且弹幕大量指认为艺人本人时,即满足“可识别性”标准。
然而,法律面临着诸多“模糊地带”。首先是“近似脸”认定难题。根据北京市中盾律师事务所执行主任、高级合伙人尹超的解释,AI面部侵权的认定标准为“可识别性”,只要技术生成的内容能让公众稳定识别出特定自然人,未经许可的使用就可能构成侵权。即使制作方声称“随机生成”,只要观众能一眼认出明星特征,侵权即成立。全国首例AI声音侵权案(殷某案)中,法院判决未经许可使用AI化声音赔偿25万元,确立“可识别性”原则。
“合理使用”界限在AI时代也面临挑战。制作方辩称的“技术巧合”(如声称AI随机生成)不被采纳,因法院要求其复现创作过程自证,无法举证则承担败诉后果。即使标注“非商用”“公益分享”“个人二创”等字样,均不构成合法免责依据,仍需承担全部侵权责任。
更为严峻的是普通人面临的延伸危机。现实中,普通人的肖像、声音被AI合成滥用的场景,远比大家想象的更加泛滥:有人的肖像被AI换脸用于低俗色情视频、虚假广告宣传,导致名誉受损;有人的声音被AI合成用于电信诈骗,使家人朋友蒙受财产损失;还有人的肖像被随意用于各类短视频、短剧内容。网络博主“白菜汉服妆造”的汉服照被盗用,AI生成短剧《桃花簪》,将其脸直接贴在猥琐反派“刘大”身上,丑化形象、恶意传播。
如果说对公众人物的侵权行为,他们尚能凭借其舆论声量引发关注、推动处置,那么大量发生在普通人身上的AI侵权行为,往往只能不了了之。不仅侵权主体难以确定,AI短剧制作方若为小型工作室或隐蔽企业,信息不透明且容易注销;举证成本还很高,取证、公证、诉讼等环节对普通人来说既复杂,又要投入不菲的时间金钱成本。
在幻象与真实之间,我们如何自处
AI技术滥用对肖像权、真实性认知造成的冲击,在2026年的这场维权风暴中显露无遗。杨钰莹无滤镜生活照所象征的“真实”,在这个技术迷雾时代具有警示与参照价值。它不是对抗技术的怀旧,而是提醒我们:在算法编织的幻象中,那些未经修饰的生命痕迹、自然的光影过渡、真实的皮肤纹理,依然是人类连接与信任的基础。
未来,我们需要推动技术伦理建设、完善法律法规(尤其是针对深度合成内容)、加强平台监管责任,并提升公众的媒介素养与辨别能力。2026年4月起,监管部门要求AI短剧强制备案并标注生成标识,平台需建立“人脸比对+数字水印”机制拦截侵权内容,否则承担共同侵权责任。
当AI能完美复刻一张脸,你还能相信镜头前的影像吗?晒出你见过的“一眼假”AI明星图,我们一起打假。