被AI“偷走”声音配音演员集体维权

内地明星 1 0

半夜刷短视频,突然听见一段熟悉的声音。

不是某个明星,也不是哪位主播,而是你从小听到大的“国配脸熟音”。台词倒是新编的,剧情也乱七八糟,可那口气,那语调,像极了你记忆里的某个角色。

再往弹幕里一看——“这不就是叶清老师的声音吗?”

很多配音演员最近都撞上了同样的事:自己从没录过的内容,自己也没出过价、没签过合同,声音却已经被人“借走”,成了AI短剧、商广告、小说旁白里的流水线工具。

说好听点叫“致敬”,说直白点,就是没打招呼的偷。

最让人发毛的地方在这儿。

AI换脸这事,这两年大家已经有点警觉了。视频一看不对劲,眼睛、表情有点假,多少还能分出来。可AI仿声不一样,你戴着耳机听,根本没意识到那个人从头到尾都没开过口。

配音演员叶清,给很多人塑造过记忆里的男人声线——《甜蜜蜜》里的黎小军,《无间道》里的刘建明,多少人是听着那种语气长大的。结果前段时间,他在短视频平台上发现,有人用AI生成了一集短剧,主角旁白听上去,几乎就是他的声音。

叶清自己听了,都承认还原度非常高。

这种感觉,和你走在街上,突然发现别人穿着你的衣服、拿着你的身份证,帮你“工作赚钱”,但钱一分不归你,反而可能给你惹麻烦,差不多。

类似的事情,在圈里已经不是个例。

配音导演、配音演员李龙滨,也经常发现自己的声音被拼接进各种乱七八糟的视频里。他们从没授权,更没参与,连知道这件事,都是粉丝在评论区提醒。

很多人可能对配音演员不熟,但他们的声音你一定听过。比如季冠霖,《甄嬛传》里那句“臣妾做不到啊”,以及很多动画电影里的配音都是她。

她碰到的就更离谱。“魔改”版本的印度《甄嬛传》里,她的声音被AI仿了个八九不离十,可她自己听下来,只能说“像”,却不是她。角色的那股劲,那种从呼吸里带出来的情绪,是缺的。

声音可以被抄,表演抄不走。可问题在于,观众根本分不出这些细微差别,看个热闹就划走了,留下的烂尾印象,最后都算在“配音”头上。

更尴尬的是,AI仿声看上去“省钱”“高效”,不少小制作、短剧号、主播已经尝到了甜头:找市场上随便一份干净的音频,丢给AI软件,几分钟就能生成一整段旁白,再配上几张图、一点剧情,全套就成了可以变现的内容。

这一套链路,现在已经变成了一条灰色产业链。

前面有人专门收集声音素材,去扒影视剧、综艺、访谈,甚至从各种有声书、直播回放里剪干净人声。中间有开发AI仿声模型的团队或个人,根据不同声音做“音色模型”,收费或者免费开放。最后一段,就是那些内容创作者,用这些现成模型去做视频、做广告、做小说音频,再靠点击率、带货、广告分成赚流量钱。

这条链上的每一个环节,都靠“别人的声音”在吃饭。

很多配音演员的声音,是这么被偷走的:他们录过的片子,早就铺满互联网,只要有人愿意花时间剪几分钟干净语音,就可以拿去训练模型。别说专业配音演员,现在连主播、老师、播客主持、甚至普通人,只要在网络上留下过足够长的清晰录音,都有机会被系统“收录”。

关键是,当事人几乎没法知道哪一段被拿去训练了,什么时候被套进广告或短剧里用了。

你能看到的是结果——某个视频里突然出现一段“你的声音”。

你看不到的是过程——那背后怎么抓的数据,存在谁的服务器上,被分享了多少次,被卖给了多少下游。

法律是有的,但落地很难,这是这件事最现实的困惑。

从法律人视角,中国政法大学人工智能法研究院的张凌寒说得很直接:用AI仿配音演员,既可能侵犯“声音人格权”,也可能动了相关影视剧的著作权。

简单讲,一个是“我这个人”的权利,一个是“我参与过的作品”的权利。

按理说,你没有经过别人同意,拿着人家的声音去做商业内容,还模拟到了足够相似的程度,让公众误以为是当事人,说白了就是把人“拉下场”,这是对人格的一种侵犯。

如果你用的是影视剧里的台词,或者原本配音属于某个作品的整体著作权范围,也容易牵出版权问题。

听上去保护网挺密,实际操作起来,却很难撕开那个口子。

第一关就是取证。

很多AI仿声的产物,根本不是官方大制作,而是碎片化的小视频、小剧集。今天在这个号看到一段,明天在另一个搬运号看到剪辑版,平台算法还会自动“改编”“切条”,源头早就被冲没了。

你想证明“这段声音是从哪来、谁先偷的、谁在赚钱”,几乎找不到完整链条。

第二关是“鉴定”。

肖像侵权好歹还能拿照片、视频对比,声音这东西,听得到、摸不着,频率可以微调、语速可以拉慢拉快,加点效果、混点杂音,就变成另一个“版本”。

对配音演员来说,平时工作就要不停切换声线,同一个人可以配小孩、青年、老人,AI在这个基础上稍微再“拧一拧旋钮”,做到高度相似,又不是百分百复制,留了一点空间。

你去法庭上,很多人只会说“很像”,但让法官认定“这就是他”,需要标准、需要鉴定机制。现在相关的技术和规范,都还在摸索阶段,连“像到什么程度算侵权”都没完全统一。

还有一关,一般人想不到——训练数据的黑箱。

AI公司、音色平台,很少会公开告诉你:“我们模型里,用了哪几部剧、哪几位配音演员、哪几场直播当训练样本。”

被侵权的人想要举证,首先要证明“你是用我的声音训练的”,但对方完全可以说:“我们只是用类似音色模拟的,并没有拿你的原始素材。”

数据源头不透明,责任自然就难落在具体某个公司、某个开发者身上。

那是不是说,配音行业就这么被AI“碾”过去?

部分从业者没有一味排斥技术。

叶清说得很清楚:问题不在于AI仿声本身,而是在于“未经授权”的乱用。如果使用方能正儿八经地来谈合作,签清楚授权范围、价格、用途,AI仿声也可以变成一个工具,帮助放大配音演员的产能,比如配一些机械提示音、批量生成固定播报,节省人力在枯燥内容上的投入。

但前提是“正视法律问题”和“合规”。

你想用谁的声音,就去找本人或经纪机构谈,拿到授权,明确只在什么平台、什么类型内容里使用,期限多久,是否可以再授权,这些都写明白。很多国外的AI配音库,就是这么做的,先跟声优签约,然后做成官方音色包,平台和用户按规则付费。

问题是,目前不少所谓“AI仿声神器”“AI主播软件”,把“随便用别人声音”当卖点,有的甚至连一句风险提示都懒得写。最起码的平台责任,都还停留在“有举报就下架”这一层。

法律在慢慢动,行业也在琢磨自救。

中国政法大学知识产权中心的赵占领就提到,司法实践还不够多,需要真实的案子去积累经验,慢慢把边界画清楚。但在这一块成型之前,平台和行业规则可以先顶上去一部分。

各大短视频平台、音频平台、AI语音软件,就可以直接写进用户协议:禁止未经授权用他人声音进行AI生成,一旦发现有仿真配音侵权,视情节封号、断开接口、保留追责。

这些规则不需要等法律全部细化完才能做,至少能把一些最离谱的行为先压下去。

行业内部也在谈“自律”。一些配音圈子开始流传“不随便给陌生项目录大量干净素材”的提醒,避免自己的原声被当成训练料库。也有人会刻意保留自己的某些“独特声纹”,不公开长时间暴露,减少被精准还原的可能。

技术这边,也开始往“水印”“可追溯”方向走。

简单说,就是在AI声音里,加入一种机器能听懂、人耳不太察觉的“指纹”。将来某段音频被质疑是不是AI仿声,就可以借助这个“水印”来识别。

怎么在声音里统一嵌入这样的标记,需要一套规范。不然每家公司搞一套,彼此又不兼容,最后变成“各管各的”,一样乱。

张凌寒提到,在配音行业内部,配音演员可以考虑给自己的声音、声纹做备案。类似录一份标准素材交给权威机构存档,将来需要鉴定时,有一个可以对比的“底样”。

这个听着有点像给声音“上户口”。谁的声线、频段、发声习惯是什么样,可以有个基础模型。以后被AI高度模仿时,至少有个技术依据,校验相似度。

如果“AI声音水印”“声纹备案”“证据固定”这三件事能慢慢完善起来,监管制度、标识制度就有底座,法院、执法部门也会更有底气出手。

很多人调侃:AI能让人“躺着赚钱”。但现实里,躺着的往往是被用声音、用脸的人,赚钱的是另一群人。

AI仿声这事,最难的地方不在技术,而在底线。

你可以用技术帮配音演员多几个“分身”,去跑一些重复工作;也可以用技术干脆绕开他们,把他们多年积累的一技之长,挪到一个没名没姓的模型上,让所有人免费用,最后只留下一句:“这就是时代的进步”。

配音行业的焦虑,一部分是来自生计,一部分是来自尊严。

声音不是一个冷冰冰的素材,它承载了人的形象、职业信用,甚至有时候就是一个人的“脸”。当观众在一个粗糙的AI短剧里听到某种熟悉音色,会本能地把信誉算在配音演员身上,而配音演员对此一无所知,这种“被代表”,谁受得了。

从目前的动向来这场博弈不会很快结束。法律得跟上技术,平台得顶起责任,行业得想好自己的路,配音演员自己也要学会用合同和证据保护自己。

在这之前,每一个还在用声音吃饭的人,恐怕都得更警惕一点。

因为你以为只是录了一部戏、一档节目,可能已经有人,把这些当成免费开放的“训练素材库”了。