配音演员集体发声抵制AI侵权,律师:平台不能以“审核难”免责

内地明星 2 0

3月13日,国内知名配音公司729声工场旗下多位配音演员发布声明函,对利用AI技术进行的侵权行为进行维权声明,表示已经对已发生情况留存证据,正在对持续违规者采取合法合规流程手段,追究其侵权责任。并请各方停止侵权行为,依法约束及审查AI作品发布及传播,尊重配音演员的合法权益。

声明函样例。

在新京报专访中,729声工场相关负责人表示,此次集体发声的契机源于AI音频滥用现象的持续蔓延与难以遏制。“最开始的案例出现在去年年初,是一些平台上推广AI漫剧的视频,虽然打着‘仅分享’‘学习’等幌子,但是点进去之后却是引导受众进行后续付费。那个时候还没有《生成式人工智能服务管理暂行办法》,只能用侵犯人身权益这个理由去平台投诉,有些平台认可‘声音权’,但是也有很多视频投诉后给到的回复是‘无法认定侵权’”。

相比“演员被换脸”这类侵权,公众往往能直观感知面孔的相似度;而声音因其无形、非视觉化的特性,被侵权时更难被察觉,维权也因此面临更大困难。此前就有媒体撰文分享了被AI“偷走”声音的配音演员维权困难的现状,记者查询中国裁判文书网发现,与AI侵权配音演员相关的判例中,有代表性的有2023年北京互联网法院处理的“原告殷某某与被告某智能科技公司人格权纠纷一案”,作为全国首例AI生成声音人格权侵权案,法院除判令下架相关侵权内容外,还判决被告向原告赔礼道歉并赔偿经济损失25万元。尽管最终维权成功,但过程所耗费的时间与精力成本依然难以估量。

729声工场向新京报记者透露,目前各平台AI漫剧的更新速度极快,每天可产出上千集,并由成百上千个账号进行分发。其中侵权内容数量之庞大,使人工检索与投诉难以全面覆盖。此外,涉及AI漫剧制作、宣发与推广的平台在投诉处理机制上仍不完善,尚未设立针对声音侵权的专项入口和维权渠道,“我们大多数时候是通过公司官方法务发函进行投诉下架”。

在维权过程中,听众群体的支持同样发挥着重要作用。“非常感恩的是,我们有很多关注并且帮助我们的听众朋友,他们密切关注着配音演员的合法权益,并且愿意站出来为配音演员发声,但是他们去评论区留言或者私信侵权方经常会遭到质疑。通过声明函,我们希望能够给到这些听众以正向的反馈,不要让他们在正确发声时被冠上‘名不正言不顺’的名头。”目前反馈显示,普通用户向平台投诉的效率仍较低,但集体发声依然具有现实意义。

在维权实践中,729声工场方面也逐渐意识到,问题并不仅仅停留在侵权内容的个案处理层面,而在于行业尚未形成清晰的授权规则。据其介绍,目前相关领域尚未出现能让配音演员充分感受到授权尊重的标准化合同条款,“多数都是‘授权声音使用在全球、全领域、全软件、全作品’、‘授权后不可干涉使用’、‘授权期超过常理’的条款。”这也意味着,若未来能够形成正规、合法、明确且合理的合作模式,他们仍愿意与使用方展开讨论,共同探索AI技术的正向应用路径。

此次行业头部公司的配音演员集体发声,或将成为推动现状改变的重要节点。在此背景下,声明函本身具备怎样的法律效力?声音被AI侵权后,平台应承担何种法律责任?个人二次创作是否会受到影响?围绕上述问题,新京报记者专访上海理振律师事务所主任、律师李振武,请其从法律视角对配音演员声音权的保护路径进行解读。

【对话】

新京报:今天多位729声工场的配音演员同天发布这份声明。从法律专业角度看,这份声明的性质是什么?

李振武:从法律性质上看,这份由众多配音演员联合发布的声明,是一份针对不特定多数人的、公开的“权利警告函”。其核心功能是公开宣告其对其声音享有法定的声音权益,同时也预先告知社会公众,特别是AI技术开发者、平台及用户,任何未经许可的特定使用行为均被权利人所禁止,这为后续可能的法律行动(如发送侵权通知、提起诉讼)奠定了事实和证据基础。

新京报:声明特别强调了“包括但不限于AI工具或产品”,并列举了多种侵权形式(采集、生成、内置样本、授权他人等)。这种列举式的表述,在法律上有何特殊考量?

李振武:我觉得这个表达是明智的。

首先,它明确将当前最突出、最迫切的侵权形式(如AI声音克隆、合成)纳入禁止范围,避免侵权方以“声明未明确提及”为由进行抗辩。

第二,“采集、生成、内置样本、授权他人等”的表述,旨在涵盖现有和未来可能出现的所有利用形式。它不仅禁止最终的“生成”行为,也禁止前端的“采集”(比如训练数据获取)行为,从源头进行控制。我认为这也符合民法典对人格权保护的全面性原则,也呼应了《生成式人工智能服务管理暂行办法》中关于使用数据进行训练应取得相关授权的相关规定。

新京报:声明的第1、2条指向“采集声音”和“生成AI音频”的主体。结合全国首例AI生成声音人格权侵权案(殷某某案),该案中,文化公司认为自己拥有录音制品著作权,就可以授权AI使用。这是否是行业常见的认知误区?著作权和声音权的边界到底在哪里?

李振武:误区主要在于认为“拥有录音制作者权,就自然获得了对录音中声音这一人格要素进行商业化利用的授权”。

其实两者的边界非常清晰:录音制作者权保护的是创作成果本身,即录音制品作为“作品”或“制品”的独创性表达、复制、发行、信息网络传播等财产性权利。权利人有权处置“这份录音”的使用。但声音权作为人格权,保护的是自然人声音本身所具有的人身专属性与人格利益。它保护的是声音中的身份识别特征、情感表达等人格属性,禁止未经许可的录制、使用、歪曲、篡改或用于商业性活动。

这里的核心边界就在于:对录音制品的合法使用,不等于可以剥离其中的声音特征用于创造新的、独立于原录音的表达(如AI训练和生成)。从行业实践来看,配音演员在这类配音合同中往往仅授权在此次录音中使用,而不能超过范围使用配音演员的声音,更不可能脱离当次合作授权AI制作使用。

殷某某案的判决也明确了,使用他人声音训练AI模型,必须获得声音权人的明确、单独的授权,仅凭录音制品著作权无法覆盖此用途。

新京报:声明第5条提到“请勿发布含有我声音的AI作品,即使标注‘转载’、‘二创’、‘学习交流’等免责声明”。从法律上看,标注“非商用”或“学习交流”能否免责?什么情况下可以免责?什么情况下不能?

李振武:标注“非商用”或“学习交流”不能当然免责。

是否构成侵权,核心在于使用行为本身是否落入权利禁止的范围,以及是否符合法律规定的免责事由。如果行为本身构成了对权利人声音的非法复制、制作、公开传播其AI合成品,即便标注“非商用”,仍可能侵害权利人的声音权。

声音权作为人格权,其免责情形应参照适用肖像权的规定。根据《中华人民共和国民法典》第一千零二十条关于肖像权合理使用的规定,下列行为可以不经肖像权人同意,这些原则在司法实践中可参照适用于声音权:

为个人学习、艺术欣赏、课堂教学或者科学研究,在必要范围内使用。

为实施新闻报道,不可避免地使用。

为依法履行职责,国家机关在必要范围内使用。

为展示特定公共环境,不可避免地使用。

为维护公共利益或者肖像权人合法权益,制作、使用、公开肖像权人的肖像的其他行为。

我认为,在AI生成声音的语境下,这些情形的适用极为严格且狭窄:上述所有情形都必须遵循“在必要范围内”和“不可避免地使用”等严格限制条件,且不得以丑化、污损,或者利用信息技术手段伪造等方式侵害权利人的合法权益。

据此,具体到AI声音:如果仅限于个人在完全私密、非公开的环境下,使用极少量声音样本进行技术实验或学习,可能构成免责。但一旦涉及对声音的复制、生成并向任何第三方(包括网络平台)传播,就很难被认定为“个人使用”和“必要范围”。

其次,在课堂教学中,为讲解语音合成技术而播放一段AI生成的对比音频,可能属于合理使用。但将其作为“二创”作品公开发布,则超出了必要的教学演示范围。

最后,如为报道某AI侵权事件而播放涉事侵权音频片段,可能适用。

新京报:据《互联网信息服务深度合成管理规定》和2025年9月施行的《人工智能生成合成内容标识办法》,平台对AI生成内容负有一些法定义务,但是相比明星换脸,声音更难以辨识,声音相似的人也有不少,这会对平台产生更难审核的问题吗?这可以作为抗辩理由吗?

李振武:相比视觉换脸,声音的相似性判断更具主观性,且存在自然音色相近的情况,这给平台的事前主动审查带来了巨大技术挑战,但不能作为完全的抗辩理由。

审核难度不影响平台在接到权利人明确、具体的侵权通知(如提供原声音样本、侵权内容链接、对比说明)后的处理义务。此时平台已“明知”或“应知”侵权可能,必须采取行动。

司法实践中,判断平台是否尽到注意义务时,会考虑现有技术水平。如果已有相对成熟的声纹识别、AI内容检测技术,且成本合理,平台有义务引入并运用这些技术进行一定程度的过滤和拦截。如果某个AI声音作品已被广泛传播并明确指向某位知名配音演员(如标题直接使用其姓名),其侵权事实像“红旗”一样明显(源于“红旗原则”,是指当网络服务提供者明知或应知其平台上存在侵权内容,且该侵权内容如同“红旗”般显而易见),平台不能以审核难为由推卸责任。

因此,审核难度可以作为平台主张其无法做到100%事前过滤的理由,但不能免除其在收到通知后的处理义务,以及在技术可行范围内采取合理预防措施的责任。

新京报:从平台视角看,如果接到此次张福正这样的声明或投诉,平台依法应在多长时间内处理?“通知-删除”规则的适用标准是什么?

李振武:我国法律未规定统一、精确的小时数,但要求“及时”,且从实践来看,各平台的处理时效也不太一致。

“通知-删除”规则的适用标准:

首先,通知必须合格有效。通知应包括权利人的真实身份信息和构成侵权的初步证据。初步证据应能准确定位侵权内容(如具体URL链接)并说明侵权事实(如声音对比)。如有委托他人举报的,还应该有明确的授权手续。

其次,平台需进行初步审查。平台需对通知进行形式审查,判断其是否合格。对于合格通知,应及时转送被投诉用户,并依据初步证据判断是否采取删除等措施。

第三,采取“必要措施”。措施不限于删除,应根据侵权严重程度选择,包括屏蔽、断开链接、终止服务等。

新京报:如果侵权内容播放量巨大,但侵权方并未直接获利(比如只是上传供网友免费观看),赔偿金额会受影响吗?

李振武:即使侵权方未直接获利,仍需承担赔偿责任。

即使侵权人未直接获利,巨大的播放量是法院酌定赔偿时至关重要的情节。它直接体现了侵权行为的传播范围、损害后果的严重程度以及对权利人声音商业价值的稀释影响。在殷某某案中,法院正是综合考量了产品播放量超过32亿次、侵权行为性质、原告声音价值等因素,酌定判决赔偿经济损失。因此,播放量是支撑较高赔偿额的关键依据。

新京报:如果未来有平台希望合法获得CV的授权进行AI训练,授权协议应该包含哪些核心条款?

李振武:一份完备的AI声音训练授权协议应至少包含以下核心条款:授权标的(明确具体声音样本);授权性质与范围(明确是否独家、是否可转授权、具体使用场景及禁止场景);衍生成果权利归属(明确AI模型及其输出内容的知识产权与相关权益分配);报酬与支付方式;人身权利保护(署名方式、禁止损害名誉的使用);数据安全与隐私保护义务等。协议的关键在于权利链条清晰、使用场景具体。

新京报:从更宏观的视角看,我国目前关于声音权的法律保护框架是否足够应对AI时代的挑战?

李振武:我国已初步构建起应对AI时代声音权挑战的法律框架:民法典确立了声音权的人格权地位;司法案例明确了AI声音可识别即受保护的核心规则;《互联网信息服务深度合成管理规定》《人工智能生成合成内容标识办法》等规定了AI生成内容的标识与管理义务。因此,我觉得在立法层面已经足够应付。但在具体实践中仍需细化法律规定,例如在具体授权机制、侵权认定的技术标准、平台责任与技术可行的平衡以及行业自律标准等方面,仍有待进一步细化。