“本人不授权任何AI使用我声音进行模型训练及AI作品。法庭见。”3月,配音演员史泽鲲在社交平台发声,称已就AI盗用声音侵权一事委托律所正式发起诉讼。寥寥数语,将一场酝酿已久的行业抗争推至台前。
没多久,为《哪吒》系列配音的吕艳婷、张珈铭,为“甄嬛”配音的季冠霖,以及参与大量知名影视剧、广播剧的边江等数十位国内知名配音演员接连发声,反对未经演员知情同意,擅自采集其声音素材用于AI训练、音色合成及商业变现的行为。
他们中,有人发现自己的音色出现在AI生成的短剧里;有人发现自己的声音被做成付费模型公开售卖;更可怕的是,他们根本无从知晓,自己的声音素材何时被采集、训练,又流向了哪里。
配音行业的集体发声,并非孤立的维权事件。“偷声音”的发生,远比大众想象得更早。2024年4月,配音演员林景在一部朋友转发来的AI短剧里,发现了与他自己和另一位配音演员彭博极其相似的声音,甚至听不出做过任何处理。他当时在社交平台写道,行业中早有组织和个体暗地里盗用演员们的作品训练语音AI,但整体还是“偷偷摸摸”;没想到看到公开平台出品的短剧也出现了这样的行为,未来事情发展只会愈演愈烈。
同年,某音频软件将配音演员夏磊、谢添天、柯暮卿为多款游戏配音的声音作为素材,制作了与三人声音相近的人工智能语音音源。在历时半年的维权后,该软件发布致歉声明并下架相关服务,同时为已经产生的传播向三位配音演员道歉。
而两年后的今天,AI盗声现象称得上“愈演愈烈”。以公开发声的季冠霖为例,由于《甄嬛传》二创繁多,采用季冠霖声音进行演绎的AI视频、配音也数不胜数。记者在某视频平台以“甄嬛”为关键词搜索,发现大量二创内容,包括“唱K”“手搓印度版”等不同创作方向,但几乎都使用到了与原作中季冠霖极其相似的声音。
季冠霖则在个人声明中称,这种未经授权擅自采集声音样本用于 AI 模型训练的行为,已经不限于影视二创、短剧配音,甚至涵盖商业与非商业传播渠道。她更在接受央视总台采访时表示,在艺术层面上,无序发展的AI仿声消解着配音演员的表演能力和情感流动,降低了配音行业应有的艺术水准和价值,还让配音演员面临诸多法律风险。“未来如果用我的声音生成了一段违法的、行骗的语音,或者是虚假广告,该怎么去界定它是AI还是我本人?”
AI声音侵权的快速泛滥,核心原因之一是技术门槛的降低。当前市场主流剪辑软件中,普通人已经可以通过简易操作轻松克隆自己的声音,但在克隆前仍需阅读相关提示,承诺相关声音、形象已获得完整的合法授权;而如果借助开源AI模型与音频克隆工具,流程则会进一步简化:一段短小的人声素材就能完成音色克隆。
记者检索发现,目前社交平台上有不少AI声音克隆教程,或是在网站上上传素材,或是下载相关剪辑软件,部分模型仅需用户提供3秒的声音文件,即可生成相似度极高的合成音频。这些教程的初衷是提升内容创作者的口播效率,但技术门槛之低,可见一斑。记者在试用时发现,鲜有平台设置实名认证门槛,部分主流软件也仅给出“提醒”,但未对声源的素材进行复核。
不仅如此,电商平台还形了成熟的商业化克隆服务。在电商网站上,多家店铺提供声音克隆和代训练服务,可以生成可无限调用、有不同情感控制方式、适配多场景的AI语音模型,价格则从十几元到一百元不等。
而从2024年4月一审宣判生效的全国首例AI声音侵权案来看,相关侵权行为确实已经形成完整产业链——在这个全国首案中,配音师殷女士原本为某公司录制了多部有声作品,但该公司在录制完成后,未经她授权擅自将这些作品提供给了一家软件公司;随后,该软件公司以殷女士录制的作品为素材,进行了AI化处理,生成了一款文本转语音产品并通过经销商对外出售。最终,某运营智能配音软件的科技公司采购了这款产品,在未经任何技术处理的情况下,直接调取并生成文本转语音产品,开始在软件平台上销售。从素材采集、模型训练到内容生成、商业售卖,全链条无任何环节获得声音权利人的授权,却形成了完整的侵权闭环。
有没有一种办法,能让配音演员的声音从源头上被保护起来?对此,不少业内人士都曾提出“声音水印”的概念,即为音频文件添加唯一的身份识别码,即便音频被篡改或转载,也能追踪到原始来源。从实践上看,这一技术已经在不断地完善和发展。但对大量已经成名的配音演员来说,过往海量的作品依然是被侵权的“重灾区”。
记者梳理发现,AI 声音侵权的受害者并非只有配音演员,大量具备公众知名度与社会影响力的艺人、公众人物,同样深陷 “偷声” 困境。此前,杨幂工作室就披露了一起 AI 伪造声音侵权案的胜诉详情:法院审理查明,被告未经授权,使用 AI 技术合成杨幂的声音,搭配其肖像制作推广视频对外公开传播,假借杨幂的名义开展商业营销活动,最终认定被告行为已侵犯杨幂的肖像权与声音权益。
但与此同时,维权之路依然漫长且艰难。在配音演员集体发声后,3 月,林景在社交平台更新了2024年被AI短剧侵权的“下文”:从侵权行为出现,他和团队开始积极沟通却没有任何回应,此后诉诸法律,多番努力在300多天后才成功立案,“等到25年9月终于成功开庭,现在26年3月,我们尚在等待判决结果。”
北京市中伦文德律师事务所上海分所合伙人李宇明律师告诉记者,《民法典》首次以立法形式确立了自然人声音权益的保护规则,明确对自然人声音的保护参照适用肖像权保护的相关规定。从近年的司法判例来看,AI 声音侵权认定的核心要件,是
判断合成声音与对应自然人之间是否具备 “可识别性”。
“如果普通公众能够通过 AI 合成声音的音色、咬字习惯、语调和发音特点,明确关联到特定自然人,即可认定该声音具备可识别性,相关行为构成对自然人人格权中声音权益的侵害。”他解释道:“对于配音演员而言,其声音在特定圈层的受众中具备极高辨识度,只要其固定受众能够将 AI 合成声音与该演员建立明确对应关系,同样可以认定具备可识别性。”
除了认定标准的适用问题,维权的另一大核心难点在于取证。李律师介绍,司法实践中,证明侵权行为成立主要有三类核心举证路径:一是委托具备司法鉴定资质的专业机构,对 AI 合成声音与权利人原声进行声纹同一性鉴定;二是调取涉案 AI 模型使用权利人声音作为训练素材的直接证据,或申请法院依法调取相关训练数据;三是收集普通公众、行业从业者对合成声音与权利人声音的关联性认知评论,佐证声音的可识别性。“但在具体实践中,网络上传播的 AI 克隆声音大多经过了多次二次加工,调整情感表达、升降音色、变速变调等操作,可能对鉴定结果与证据效力产生直接影响。”
他同时提醒,即便相关主体已获得配音演员某一录音制品的完整著作权,也无权未经权利人本人授权,将该录音制品用于 AI 配音模型训练、开发商业化衍生产品。“录音制品的著作权,与自然人本身的声音人格权是相互独立的两项权利。只要权利人未明确同意将自身声音用于 AI 模型训练与开发,擅自使用即构成侵权。”而一旦侵权事实成立,直接实施侵权行为的主体需承担停止侵害、消除影响、赔礼道歉及赔偿损失的法律责任,下游的内容平台、相关经销商也负有及时采取下架、屏蔽等处置措施的法定义务。
来源
| 新闻晨报