2026年3月16日,在《哪吒》系列电影中为“哪吒”配音的演员吕艳婷在微博发布声明,谴责利用AI技术,擅自采集、复制声音素材用于AI模型训练、音色克隆等行为。
这并不是吕艳婷一个人的愤怒。此前,中国知名配音公司729声工场旗下的多位知名演员均发布声明,称将对AI侵权的行为追责到底。此外,曾为《甄嬛传》中的“甄嬛”配音的季冠霖、为《哪吒之魔童闹海》中的“太乙真人”配音的张珈铭等知名演员,也都在近期发布了类似的声明。
利用AI“偷窃”他人声音,用于AI语音训练和声音生成的现象愈发泛滥。这种行为却因为取证困难等而屡禁不止。AI声音的泛滥,也可能让配音演员失去谋生的基础。正如资深配音演员冯骏骅提到的那样,一位演员的声音特色,是在多年学习、创作中打磨出来的核心价值。利用新技术轻而易举地“偷窃”,是彻底拿走了演员身上的价值。“这对演员声音稀缺性的打击,是致命的。”冯骏骅对《中国新闻周刊》说。
AI制图
越搅越浑的声音产业
配音工作室“鲸韵凯歌”相关团队负责人、配音演员高一雪称,2026年春节后开工以来,AI对配音演员声音非法采集、训练和克隆的话题,经常会被身边的同行讨论,视频、音频平台盗用声音的现象也有增加的趋势。“感觉AI就像一个定时炸弹,不知道什么时候会爆炸。”她说。
打开视频网站,随手一搜,“一句话克隆声音”“3秒钟复刻他人声音”的教程几乎随处可见。在一些二手平台,很多商家可以出售提供AI声音训练的业务,定价相当便宜,从几元到上百元不等。
不久之前,人们对于AI盗用声音的担忧,还是停留在AI对单人声音的“精准克隆”,以及由此产生的法律风险上。比如,2025年,奥运冠军全红婵、孙颖莎、王楚钦等人的声音就曾被人用AI盗用,生成的音频被做成土特产广告,导致很多人上当受骗。
如今,更加令这些配音演员担心的是,进入2026年,随着AI短剧、AI漫剧等行业的发展,配音需求增大,AI对声音的盗用和篡改,已经到达了一个全新的高度。一段声音,可能是经过了融合修改的结果。
多位配音演员表示,这种利用AI技术采集,在一段生成的语音中融合不同声线的盗用方式,已经成为AI侵权的主流形式。这样的方式,普通人根本无法辨别,同时也增加了被侵害者诉诸法律的难度。
全球配音演员们都面临着类似的问题。2025年9月,全球知名游戏《古墓丽影》的发行商被主角“劳拉”的法语版配音演员弗朗索瓦·卡多尔起诉。卡多尔声称,对方在游戏中未经允许的情况下用AI生成了她的部分声音。而最先发现这些声音听起来“很奇怪”的,正是该游戏的粉丝。最终,因为她的维权,这些声音被官方移除。
证明“我的声音是我的”
一个自然人的声音在法律上是受到保护的。《中华人民共和国民法典》第一千零二十三条规定,对自然人声音的保护,参照适用肖像权保护的有关规定。而《中华人民共和国民法典》第一千零一十九条中,关于肖像权的规定是:未经肖像权人同意,肖像作品权利人不得以发表、复制、发行、出租、展览等方式使用或者公开肖像权人的肖像。
对此,北京时代华地律师事务所高级合伙人、知识产权部主任、律师徐新明表示,虽然“自然人声音”目前在法律上还是一种权益,还没有达到单独成为权利的阶段,但上述条款证明,法律早就给予了个人声音实在的保护。“随着AI技术的发展,声音方面的侵权、纠纷肯定是越来越多了,法律不可能不去保护这些领域。”他说。
而在商业社会中,关于声音的侵权问题,更是涉及了大量的经济利益。广东知恒律师事务所合伙人律师张晓梅认为,自然人的声音属于人格权范畴,具有??人身专属性又带有财产属性。声音必须具备可识别性才能受到法律的保护,即一般公众或特定领域人群能通过音色、语调、发音风格等识别出特定自然人。生活中,一个人知名度越高,他或她的“声音”的可识别度就越高,能带来的财产收益也会越高。“这就好比车载导航里,好听的语音包再多,‘志玲姐姐’声音的下载量还是极高的。”
配音演员和配音公司,对这种利益的受损有切身感受。作为上海知名配音公司音熊联萌核心成员和创始人之一的冯骏骅,在2024年曾和团队一起,见证过一起AI配音软件对旗下演员声音的侵权事件。当时,团队发现,旗下配音演员夏磊、谢添天、柯暮卿三人在一款游戏中的配音被一个AI配音软件盗走用于AI训练。
为此,他们花费了半年时间进行维权。最终与对方达成和解。对方同意将演员们的声音下线,并进行赔偿且在网络上公开道歉。音熊联萌的法律团队表示,在这个案子的取证过程中,他们发现了在声音维权领域的很多难点、痛点,这也是他们选择和解的原因之一。而其中最主要的问题,还是对声音的“可识别性”的证明。
“可识别性”是法律上的说法,具体的意思是:听到一个人的声音,就可以想到这个人。换句话说,这其实就是一个证明“我的声音是我的”的过程。关于这个问题,音熊联萌的法律团队表示,目前,法律上关于声音人格权的举证,一般可以从三个维度来操作:一是通过技术鉴定证明声音的归属,二是让法官当庭勘验(聆听),三是举证某个声音在行业内的知名度,也就是相关群体是否认识、知道这个声音,知道它背后的商业价值。
而目前的声音维权,在这几个维度的取证上都有困难。比如,在鉴定人格权属于谁的问题上,因为AI合成涉及数据清理、模型合成,声音样本的声学特征会发生变化,这就给鉴定造成了难度。
不过,为了旗下演员的利益,音熊联萌在维权时,还是将能使用的办法都尽量使用了。团队先是集体梳理了三位演员在被侵权游戏中的“招牌表达方式”和他们最知名、最重要的配音台词段落。随后,三位演员以职业的标准,在录音棚中重新录制了这些片段、台词和表达,而这一系列动作也仅仅是技术鉴定的前期准备工作。而光是这一个过程,就占用了大量的精力、时间和金钱,这也是音熊联萌选择尽快和对方和解的原因之一。
而“知名度”的判定,在不同地区、不同案件的法院审理中,标准也是不同的,这就造成了判决结果的不确定性。2024年,全国第一例“AI生成声音人格权侵权案”曾在北京宣判。原告配音演员殷某因为声音被其他软件盗用作为AI训练,而成功获赔25万元。在这个案例中,法院对殷某声音的“知名度”认定依据就是,这位演员在整个行业的“相关公众”之间,也就是同行之间拥有名气。然而,在另外一些地区的配音演员被AI侵权的案件中,有法院对配音演员“知名度”的认定,就变成了需要具有“国民知名度”才可以。
一些配音公司已经开始防患于未然,提前采取一些保护个人声音的手段。3月18日,配音工作室鲸韵凯歌发布微博称,团队的配音演员均已完成声音人格权司法确权,并取得国家认可的可信时间戳权利证书,形成了完整、可追溯的权利证据链,受《中华人民共和国民法典》及相关法律法规保护。
鲸韵凯歌相关团队负责人、配音演员高一雪称,“声音人格权”的司法确认过程并不复杂。只要联系第三方的可信机构,在网站上申请“时间戳”以及声纹认证就完成了。“把录好的音频上传到知识产权第三方机构的网站里面,就相当于给自己的声音打了一个‘戳’。这样,在法律层面上可以明确,我对我的‘声纹’享有合法的权益。这算是在侵权行为之前,防患于未然的一种做法。”高一雪说。
虽然面临着太多技术风险,但大多数配音演员并不抵制AI。他们其实愿意使用AI提高自己的工作效率,也愿意和大型配音平台、有声书平台合作,通过正规合同,将自己的声音授权给对方进行训练。他们抵制的,只是“偷窃”声音的行为。
发于2026.3.30总第1229期《中国新闻周刊》杂志
杂志标题:被偷走的声音:配音演员大战AI侵权
记者:仇广宇
(qiuguangyu@chinanews.com.cn)
编辑:杨时旸