没有通告,没有片酬,甚至连摄像机都不曾架起,但屏幕上那个媚俗贪财的反派,却赫然长着一张与自己极为相像的脸。
这样的遭遇,最近发生在了一位汉服妆造博主白菜(化名)身上。
3月31日,话题“AI短剧 偷脸”登上热搜。起因是白菜发现自己此前拍摄的照片被短剧《桃花簪》未经授权擅自使用,并通过AI技术进行了内容生成。
更令白菜不能接受的是,他的形象在剧中是一个贪财好色的人,他希望短剧制作方以及平台给自己一个正面回应。
白菜对华尔街见闻表示,目前片方没有联系自己,平台联系他通过邮件反映问题,他已经开始取证,并联系律师维权。白菜后续发现该短剧已将部分原来使用他照片合成的形象进行了替换,“不知道又是哪个人受了无妄之灾。”
针对以上事件,红果相关负责人回应,平台第一时间做了核查和处置:相关AI短剧为第三方制作公司上传。
红果已要求制作公司修改、删除相关侵权内容。
对于多次有主观故意侵权情形的制作方,平台将视情节予以处罚。
不过,白菜的遭遇并非个例。
过去的一年里,这个短剧不仅在市场规模上首次超过传统电影票房,更在底层生产逻辑上完成了一次变异,
极致的成本压缩正在侵犯普通人肖像权与配音演员声音人格权。
而行业想要长期健康地存续,这些“草台班子”的问题,仍然需要直面。
失控的偷音偷脸
要理解这场舆论风暴的烈度,就需要切入侵权发生的物理与技术现场。
白菜遭遇的,是目前AI短剧制作中最典型的一种侵权范式:定向LoRA(Low-Rank Adaptation)模型训练与ControlNet特征锁定。
在过去,短剧制作方如果想省去演员成本,最多只能使用粗劣的换脸软件。
但如今,侵权者只需利用爬虫技术,在各类社交平台,尤其是图文生态繁荣的社区,批量抓取某位博主的高清照片,只需十几到二十张不同角度的素材,就能在本地训练出一个专属的微调模型。
AI不仅能复现该博主的五官拓扑结构,还能精准记忆其特定的服饰纹理与妆容风格。
这种“偷脸”行为的演进路径颇具讽刺意味。
起初,短剧盯上的是自带流量的公众人物。肖战、迪丽热巴、鞠婧祎等头部明星是重灾区,大量的AI短剧直接将明星的脸“套”在劣质的网文剧情中以博取眼球。
然而随着大型经纪公司法务团队的介入和维权函的密集下发,侵权者们迅速调整了策略,他们开始将目光转向素人。
对于隐藏在暗处的短剧制作团队而言,这是一个经过精确计算的风控策略。
普通网民缺乏舆论声量,没有专业的法务支撑,甚至极大概率都不会看到这部恰好使用了自己面孔的下沉市场短剧。
素人,成为这套商业逻辑里最安全、最廉价、最取之不竭的“免费素材库”。
如果说“偷脸”剥夺的是视觉表象,那么“偷声”则直接刺穿了影视作品的情感内核。就在《桃花簪》被指“AI偷脸”事件前夕,影视配音圈也迎来了史无前例的行业震荡。
近期国内顶尖配音机构729声工场,以及季冠霖、史泽鲲等头部配音演员,罕见地打破了行业内的隐忍,密集发布联合维权声明。
他们的愤怒指向了一个明确的靶点,大量短剧制作方,未经任何授权,肆意采集配音演员的声纹数据,用于生成AI短剧的配音。
在法律定义中,声音承载着个人的情感表达与辨识度,受《民法典》中“声音人格权”的严格保护。
然而,在开源声音克隆项目泛滥的今天,只要获取配音演员在过往影视剧或广播剧中的几分钟纯净干音,就能克隆出一个AI声音模型。
这种侵权对配音演员的打击是毁灭性的。
一方面是直接的经济利益受损。原本几百元一分钟的专业配音,被几厘钱一分钟的AI算力取代;
另一方面则是巨大的精神折磨:许多配音演员震惊地发现,自己耗费多年心血打磨的极具辨识度的声音,正在各类充斥着擦边、暴力、狗血剧情的劣质短剧中声嘶力竭。
当自己的声音被制作方强行切除并安插在拼接的赛博人物身上,配音演员们便不再容忍了。
极限降本的隐性杠杆
侵权泛滥的底层原因,深埋在短剧行业商业模式的剧变,以及制作方对“极致压缩成本”的追求之中。
随着以红果短剧为代表的“免费短剧APP”异军突起,免费模式颠覆了原有的算账逻辑:
用户无需为单集付费,而是通过观看信息流广告换取内容;平台赚取巨额广告费后,再根据播放时长、完播率等数据指标,与内容制作方进行分账。
在这一模式下,平台的分发算法成为了推荐的主要角色。制作方从过去在流量池里自主搏杀的淘金者,变成了高度依附于平台生态的“内容提供方”。
早期,为了从付费小程序手里抢夺优质剧集,短剧平台曾推出过丰厚的“保底分成”政策。
平台承诺,只要剧集质量达标并在平台首播,无论最终数据如何,都会给予制作方一笔兜底收益。这曾被许多影视作坊视为旱涝保收的“避风港”。
转折点在今年3月集中爆发。
当时,行业内曝出红果开始大规模取消针对真人短剧项目的“保底+分账”模式,转而推行极其严苛的纯分账制。尽管随后抖音集团高层出面澄清并非“全面取消”而是“调整机制”,但对于广大中小承制方而言,处境更加艰难。
失去保底资金兜底,制作方面临着更大商业不确定性,精心拍摄的剧集,如果上线初期的完播率没有触发平台的算法推荐阈值,就会被日均上新成百上千部的“剧海”淹没,最终拿不到分账。
巨大的不确定性,再一次扭转了行业趋势。
既然收益自己决定不了,制作方能掌控的生存法则只剩下一条:在前端,一些参与者开始极限压缩制作成本。
3月以来,不少承制方叫停了真人实拍项目,开始转向成本更低的AI短剧。
在全AI短剧领域,连群演、摄像机和拍摄场地都被彻底省去。制作方只需利用AI绘画工具生成场景,配合特征锁定插件生成连环画,一部剧的视觉成本可能被压缩到十分之一,周期甚至缩短至48小时。
一位西安短剧从业者告诉华尔街见闻,当前AI取代真人演员的趋势非常明显,在平台调整分账策略之后,
“大家觉得拍真人短剧成本太高,很多老板就不想投资了。”
该人士表示,就像短剧凭借“极致成本和快速周转”冲击长视频市场一样,后续AI也会以相同的逻辑重塑真人短剧市场。
理清了行业极限降本的演变路径,也就看懂了为何“偷脸”与“偷声”乱象会在当下彻底爆发。
在一个随时可能颗粒无收的极端生态里,要求草根团队去购买昂贵的正版图库、签约专业画师原创设计、按照工会标准支付声优片酬,显然不够经济。
劣币驱逐良币的工业齿轮中,侵权不再是法务环节的无心之失,而变成了被精心计算过,甚至被行业默许的隐性商业杠杆。
制作方的生存哲学有一定的投机性:先抓取、快生成、速上线,只要爆火就是血赚;就算日后被原作者发现起诉,短剧早过了吸金期,大不了下架视频甚至注销空壳公司。
违法成本低,维权成本高也是侵权屡屡发生的重要原因。当违法的代价仅仅是下架,而合法合规的成本却高到足以拖垮整个公司时,侵权就成了一道稳赚不赔的数学题。
普通人的数字权益与演艺人员的职业尊严,就这样不可避免地沦为了这台庞大短剧印钞机下耗材。
平台“避风港”坍塌
短剧行业的下半场,如果想要真正实现从“草莽”走向“主流影视形态”的跨越,显然需要在法律界限内重新确立游戏规则。
面对系统性的侵权潮,单纯依靠个体的零星维权无异于杯水车薪,
真正的规制力量必须来自顶层设计与平台治理。
在我国现行《民法典》框架下,无论是未经许可使用他人肖像,还是擅自克隆他人声音,都已被明确界定为侵权。
2024年,北京互联网法院关于“AI生成声音侵权案”的全国首案宣判,更是从司法层面确立了“未经授权使用AI克隆声音构成侵权”的铁律。
然而,理论的丰满掩盖不了实践的骨感。
普通人在面对海量的AI生成内容时,面临着“三高一低”的困境:发现成本高、举证技术门槛高、诉讼时间成本高,而最终的获赔金额极低。
花费数万元律师费和半年时间,可能只换来几千元的赔偿和一纸道歉声明。这种不对等的博弈,变相纵容了侵权者的肆无忌惮。
司法界亟需在未来的判例中引入更高额的“惩罚性赔偿”机制,真正打疼那些以侵权为商业模式的规模化作恶者。
在这场侵权乱象中,短剧平台平台作为流量的分发枢纽和最终的利益分配者,也有把关的责任。
比如针对平台主动推流、重点分发或参与分账的短剧内容,平台应当建立或接入具备全网级视野的“数字版权指纹库”。在视频上传审核阶段,强制引入基于生成式对抗网络的AI鉴伪模型,一旦发现内容涉嫌侵权的特征,直接阻断发布。
红果相关负责人表示,AI短剧作为新生业态侵权识别难度大,平台会努力提高审核能力。对于部分肖像权侵权情形,界定是否有授权、是否尊重了个人出镜意愿较为困难;且动态生成的短剧内容中,人物会伴随表情、场景切换,面部持续变化,平台难以在审核阶段进行精准识别拦截。
当前已经设置相应举报邮箱,权利人和用户可举报监督
,一经确认,平台会第一时间处理。
技术反制的路径
当潘多拉的魔盒被彻底打开,单纯的道德呼声与滞后的事后追责,显然已无法阻挡大模型对高质量人类数据的贪婪吞噬。
然而,技术演进的历史反复证明,这从来都不是一场单向的屠杀,而是一场永无止境的“矛与盾”的较量。
如何防止个人特征被窃取,进而将独特的面孔与声音转化为受法律保护、可合法变现的数字资产,不仅关乎个人尊严,更在催生一条极具想象力的全新商业赛道。
面对无孔不入的AI,防御策略正在经历一次重要的更迭。
将时间线拉回前两年,当生成式AI刚刚爆发时,首当其冲的插画师群体为了抵御模型的无差别抓取,曾广泛采用过Nightshade(夜影)或Glaze等工具。
这类早期技术的底层逻辑是通过在图片像素中注入干扰噪点,一旦AI模型将其抓取训练,便会导致模型生成逻辑崩塌。
这是一种带有“玉石俱焚”色彩的破坏性自救手段,它在特定历史阶段展现了创作者的愤怒,但也因为可能误伤开源生态而备受争议。
时至今日,随着AI合规化进程的推进,数据安防技术已经走出了破坏性反击的初级阶段,全面迈向了更具建设性的隐性加密与动态确权。
目前,内容安全领域的最新趋势是“主动防御与内容溯源”的深度结合。
行业内正在加速落地更为高阶的动态反推演护盾以及内容溯源与真实性联盟标准。
其中的运作机制正在变得尤为精密。
例如汉服妆造师在社交网络上传一组全新原创写真,或者配音机构发布一段音频时,底层系统会自动为其注入基于区块链或密码学的隐性水印与凭证。
这种护盾不再以“摧毁AI”为目的,而是构成了一道精准的“绝缘层”。它允许人类用户的正常浏览与点赞,但一旦未获授权的短剧黑产试图利用爬虫提取照片的面部拓扑结构,或提取音频的声学特征去训练专属LoRA模型时,反推演算法就会被激活,导致抓取程序只能提取到一堆被混淆的乱码或无效特征。
这种从事后防范向事前加密的转变,真正为普通人的数字资产穿上了坚不可摧的防弹衣,催生了如Protect AI、Reality Defender、瑞莱智慧等一批AI安全相关的准独角兽企业。
安全技术的成熟,目的是保障数据的合法流通。
堵不如疏,短剧市场每日庞大的产能需求是客观存在的,与其让灰色产业链在暗网中野蛮生长,不如通过底层加密技术的保驾护航,
建立一个合法、透明的“数字资产交易市场”,由此开启“微粒化IP”合法变现的新纪元。
何为“微粒化IP”?在传统的影视工业中,只有一部完整的剧作或一个知名小说角色才能被称为IP。但在AI重构的生产管线里,颗粒度被无限缩小。
例如此事件当事人白菜的一套出圈汉服妆容、某位素人极具网感的侧脸轮廓、配音演员季冠霖独具特色的情感哭腔,在确权技术的加持下,都可以被认证为一个个独立的、受保护的“微粒化IP”。
如果行业建立起合规的数据授权中枢,普通人或许愿意将自己的面部特征或声纹进行官方打包,上架为合法的“AI生成素材包”。
短剧承制方无需再冒着侵权被告的风险铤而走险,只需支付一笔微薄但高频的单次授权费,例如每调用一次该人脸模型生成一分钟视频,自动扣除几元钱,就能获得合法的Token。
对于深受侵权之苦的配音演员而言,这更是化被动为主动的契机。
头部声优可以联合具备合规资质的大型AI企业,利用安全的数据清洗技术,亲自训练并发行自己专属的“官方正版AI声纹包”。通过引入智能合约,声优可以为其声音设定极其严格的使用界限。
AI重塑内容生产线已是势不可挡的浪潮。但一个试图走向主流视野、规模直逼数百亿的文娱产业,绝不可能长期建立在对普通人数字权利的掠夺之上。
在效率与尊严的博弈中,守住安全、合规与分配的正义,才是AI技术长久融入商业的正途。