文/李琛
据极目新闻报道,红果短剧平台上的多部AI短剧被网友指控使用AI合成技术盗用易烊千玺的肖像及声音,《午夜公车:她捉诡超凶的!》热度近4000万,《骗我投个好胎?行,你们别后悔》热度更是接近7500万,涉嫌侵权的画面在网友曝光后被删除或更改,但作品仍正常播放。短剧平台客服回应称,已收到大量反馈,正在核实处理中,同时坦言“AI短剧目前是新的类型,所以可能存在审核方面的不完善”。
这件事的内核,细想有个根本的复杂问题没被触及到,不禁发问:当AI生成“与易烊千玺肖像极为相似”的角色,但并非对原始肖像的直接复制粘贴时,法律应该如何判断?侵权成立与否,到底是取决于何种程度的“像”?如果AI生成的模型参数没有任何一行代码直接写入易烊千玺的面部特征数据,却在输出端形成了足以让观众识别出特定明星的肖像,那么是谁在侵权?
北京互联网法院综合审判三庭庭长颜君在解读AI侵权认定时指出,判断是否构成侵权的核心在于,利用AI技术合成的自然人肖像和声音,“只要能够使一般社会公众或相关领域公众根据其五官、轮廓等外部形象或音色、语调、发音风格等声音特征识别出特定自然人,即应纳入该自然人人身权益的保护范围”。也就是说,法律标准是“社会公众能否识别”,而不是算法模型。
这个标准在理论上合理,但在实践中是否带来了巨大的执行困境?平台如何在内容上线的毫秒级审核流程中,判断一个AI生成的虚构角色是否达到了“可识别性”门槛?
所以这就导致类似事件的发生,红果短剧客服的回应里有一个值得玩味的表述:“如果已经做出了整改并且版权方没有追究,可能是不会下架的”。看似是平台在流程上的谨慎表态,实际上这反映出了一个根本性的认知断层,也就是说其实平台本身并不具备认定“AI生成的相似肖像是否构成侵权”的判断能力。它只能依赖“版权方是否追究”这一事后触发机制来完成责任转移,即由被侵权方的维权行动来倒逼平台行动,而不是由平台主动识别和拦截侵权内容。
法律侵权认定的传统路径建立在可追溯性之上,一个明确的行为主体、一个明确的行为对象、以及一条清晰的行为因果链。平台可以建立版权素材库,通过指纹识别、哈希比对等技术手段进行自动化筛查。但如今的“可识别性”是一个高度主观的判断,涉及观众认知、名人公众认知度、角色所处情境等多重因素,无法通过简单的特征匹配来判定。在审核流程中,这个最终的确定几乎无法由机器独立完成,而人工审核在面对海量AI生成内容时也力不从心。
当用户输入一个提示词,比如“年轻男性、清冷气质、舞蹈专业”,模型基于其参数体系生成一个肖像。这个过程既不是在“复制”某个特定明星的照片,也不是在“修改”某个特定明星的图像,而是在概率空间中“合成”了一个新的面孔。用传统侵权的语言来表述,这既不是“复制”,也不是“演绎”,而是一种全新的生成机制。
问题就在于这里,如果AI生成的肖像与某明星高度相似,但模型的训练数据中并没有存储该明星的任何一张完整照片,创作者也没有任何主观意图去“盗用”该明星的肖像,侵权关系中的“行为主体”是谁?“侵权行为”是什么?是数据训练阶段的“吸收”,还是输出端的“生成”?
红果短剧事件恰恰卡在了这个盲区里,就举证的客观事实来看,平台不知道AI短剧出品方是如何生成撞脸角色的,出品方可能也不清楚模型在训练阶段到底学了哪些数据,而演员方面则可能面临难以直接证明AI模型使用了其肖像的举证困境。
AI生成的撞脸角色与直接盗用照片之间,隔着一片灰色的沼泽,这片沼泽正在迅速扩大。
当前司法实践中,北京互联网法院已经在一系列案件中探索了AI换脸、AI合成声音等侵权的认定边界,但尚未形成具有普遍约束力的司法解释。鉴于AI短剧行业正处于高速扩张期,建议尽快就AI生成内容的肖像权侵权认定出台专项司法文件,明确“高度相似”与“可识别性”之间的量化或质性关系,为平台和内容创作者提供可操作的合规指引。