半夜刷短视频,突然听见一段熟悉的声音。
不是某个明星,也不是哪位主播,而是你从小听到大的“国配脸熟音”。台词倒是新编的,剧情也乱七八糟,可那口气,那语调,像极了你记忆里的某个角色。
再往弹幕里一看——“这不就是叶清老师的声音吗?”
很多配音演员最近都撞上了同样的事:自己从没录过的内容,自己也没出过价、没签过合同,声音却已经被人“借走”,成了AI短剧、商广告、小说旁白里的流水线工具。
说好听点叫“致敬”,说直白点,就是没打招呼的偷。
最让人发毛的地方在这儿。
AI换脸这事,这两年大家已经有点警觉了。视频一看不对劲,眼睛、表情有点假,多少还能分出来。可AI仿声不一样,你戴着耳机听,根本没意识到那个人从头到尾都没开过口。
配音演员叶清,给很多人塑造过记忆里的男人声线——《甜蜜蜜》里的黎小军,《无间道》里的刘建明,多少人是听着那种语气长大的。结果前段时间,他在短视频平台上发现,有人用AI生成了一集短剧,主角旁白听上去,几乎就是他的声音。
叶清自己听了,都承认还原度非常高。
这种感觉,和你走在街上,突然发现别人穿着你的衣服、拿着你的身份证,帮你“工作赚钱”,但钱一分不归你,反而可能给你惹麻烦,差不多。
类似的事情,在圈里已经不是个例。
配音导演、配音演员李龙滨,也经常发现自己的声音被拼接进各种乱七八糟的视频里。他们从没授权,更没参与,连知道这件事,都是粉丝在评论区提醒。
很多人可能对配音演员不熟,但他们的声音你一定听过。比如季冠霖,《甄嬛传》里那句“臣妾做不到啊”,以及很多动画电影里的配音都是她。
她碰到的就更离谱。“魔改”版本的印度《甄嬛传》里,她的声音被AI仿了个八九不离十,可她自己听下来,只能说“像”,却不是她。角色的那股劲,那种从呼吸里带出来的情绪,是缺的。
声音可以被抄,表演抄不走。可问题在于,观众根本分不出这些细微差别,看个热闹就划走了,留下的烂尾印象,最后都算在“配音”头上。
更尴尬的是,AI仿声看上去“省钱”“高效”,不少小制作、短剧号、主播已经尝到了甜头:找市场上随便一份干净的音频,丢给AI软件,几分钟就能生成一整段旁白,再配上几张图、一点剧情,全套就成了可以变现的内容。
这一套链路,现在已经变成了一条灰色产业链。
前面有人专门收集声音素材,去扒影视剧、综艺、访谈,甚至从各种有声书、直播回放里剪干净人声。中间有开发AI仿声模型的团队或个人,根据不同声音做“音色模型”,收费或者免费开放。最后一段,就是那些内容创作者,用这些现成模型去做视频、做广告、做小说音频,再靠点击率、带货、广告分成赚流量钱。
这条链上的每一个环节,都靠“别人的声音”在吃饭。
很多配音演员的声音,是这么被偷走的:他们录过的片子,早就铺满互联网,只要有人愿意花时间剪几分钟干净语音,就可以拿去训练模型。别说专业配音演员,现在连主播、老师、播客主持、甚至普通人,只要在网络上留下过足够长的清晰录音,都有机会被系统“收录”。
关键是,当事人几乎没法知道哪一段被拿去训练了,什么时候被套进广告或短剧里用了。
你能看到的是结果——某个视频里突然出现一段“你的声音”。
你看不到的是过程——那背后怎么抓的数据,存在谁的服务器上,被分享了多少次,被卖给了多少下游。
法律是有的,但落地很难,这是这件事最现实的困惑。
从法律人视角,中国政法大学人工智能法研究院的张凌寒说得很直接:用AI仿配音演员,既可能侵犯“声音人格权”,也可能动了相关影视剧的著作权。
简单讲,一个是“我这个人”的权利,一个是“我参与过的作品”的权利。
按理说,你没有经过别人同意,拿着人家的声音去做商业内容,还模拟到了足够相似的程度,让公众误以为是当事人,说白了就是把人“拉下场”,这是对人格的一种侵犯。
如果你用的是影视剧里的台词,或者原本配音属于某个作品的整体著作权范围,也容易牵出版权问题。
听上去保护网挺密,实际操作起来,却很难撕开那个口子。
第一关就是取证。
很多AI仿声的产物,根本不是官方大制作,而是碎片化的小视频、小剧集。今天在这个号看到一段,明天在另一个搬运号看到剪辑版,平台算法还会自动“改编”“切条”,源头早就被冲没了。
你想证明“这段声音是从哪来、谁先偷的、谁在赚钱”,几乎找不到完整链条。
第二关是“鉴定”。
肖像侵权好歹还能拿照片、视频对比,声音这东西,听得到、摸不着,频率可以微调、语速可以拉慢拉快,加点效果、混点杂音,就变成另一个“版本”。
对配音演员来说,平时工作就要不停切换声线,同一个人可以配小孩、青年、老人,AI在这个基础上稍微再“拧一拧旋钮”,做到高度相似,又不是百分百复制,留了一点空间。
你去法庭上,很多人只会说“很像”,但让法官认定“这就是他”,需要标准、需要鉴定机制。现在相关的技术和规范,都还在摸索阶段,连“像到什么程度算侵权”都没完全统一。
还有一关,一般人想不到——训练数据的黑箱。
AI公司、音色平台,很少会公开告诉你:“我们模型里,用了哪几部剧、哪几位配音演员、哪几场直播当训练样本。”
被侵权的人想要举证,首先要证明“你是用我的声音训练的”,但对方完全可以说:“我们只是用类似音色模拟的,并没有拿你的原始素材。”
数据源头不透明,责任自然就难落在具体某个公司、某个开发者身上。
那是不是说,配音行业就这么被AI“碾”过去?
部分从业者没有一味排斥技术。
叶清说得很清楚:问题不在于AI仿声本身,而是在于“未经授权”的乱用。如果使用方能正儿八经地来谈合作,签清楚授权范围、价格、用途,AI仿声也可以变成一个工具,帮助放大配音演员的产能,比如配一些机械提示音、批量生成固定播报,节省人力在枯燥内容上的投入。
但前提是“正视法律问题”和“合规”。
你想用谁的声音,就去找本人或经纪机构谈,拿到授权,明确只在什么平台、什么类型内容里使用,期限多久,是否可以再授权,这些都写明白。很多国外的AI配音库,就是这么做的,先跟声优签约,然后做成官方音色包,平台和用户按规则付费。
问题是,目前不少所谓“AI仿声神器”“AI主播软件”,把“随便用别人声音”当卖点,有的甚至连一句风险提示都懒得写。最起码的平台责任,都还停留在“有举报就下架”这一层。
法律在慢慢动,行业也在琢磨自救。
中国政法大学知识产权中心的赵占领就提到,司法实践还不够多,需要真实的案子去积累经验,慢慢把边界画清楚。但在这一块成型之前,平台和行业规则可以先顶上去一部分。
各大短视频平台、音频平台、AI语音软件,就可以直接写进用户协议:禁止未经授权用他人声音进行AI生成,一旦发现有仿真配音侵权,视情节封号、断开接口、保留追责。
这些规则不需要等法律全部细化完才能做,至少能把一些最离谱的行为先压下去。
行业内部也在谈“自律”。一些配音圈子开始流传“不随便给陌生项目录大量干净素材”的提醒,避免自己的原声被当成训练料库。也有人会刻意保留自己的某些“独特声纹”,不公开长时间暴露,减少被精准还原的可能。
技术这边,也开始往“水印”“可追溯”方向走。
简单说,就是在AI声音里,加入一种机器能听懂、人耳不太察觉的“指纹”。将来某段音频被质疑是不是AI仿声,就可以借助这个“水印”来识别。
怎么在声音里统一嵌入这样的标记,需要一套规范。不然每家公司搞一套,彼此又不兼容,最后变成“各管各的”,一样乱。
张凌寒提到,在配音行业内部,配音演员可以考虑给自己的声音、声纹做备案。类似录一份标准素材交给权威机构存档,将来需要鉴定时,有一个可以对比的“底样”。
这个听着有点像给声音“上户口”。谁的声线、频段、发声习惯是什么样,可以有个基础模型。以后被AI高度模仿时,至少有个技术依据,校验相似度。
如果“AI声音水印”“声纹备案”“证据固定”这三件事能慢慢完善起来,监管制度、标识制度就有底座,法院、执法部门也会更有底气出手。
很多人调侃:AI能让人“躺着赚钱”。但现实里,躺着的往往是被用声音、用脸的人,赚钱的是另一群人。
AI仿声这事,最难的地方不在技术,而在底线。
你可以用技术帮配音演员多几个“分身”,去跑一些重复工作;也可以用技术干脆绕开他们,把他们多年积累的一技之长,挪到一个没名没姓的模型上,让所有人免费用,最后只留下一句:“这就是时代的进步”。
配音行业的焦虑,一部分是来自生计,一部分是来自尊严。
声音不是一个冷冰冰的素材,它承载了人的形象、职业信用,甚至有时候就是一个人的“脸”。当观众在一个粗糙的AI短剧里听到某种熟悉音色,会本能地把信誉算在配音演员身上,而配音演员对此一无所知,这种“被代表”,谁受得了。
从目前的动向来这场博弈不会很快结束。法律得跟上技术,平台得顶起责任,行业得想好自己的路,配音演员自己也要学会用合同和证据保护自己。
在这之前,每一个还在用声音吃饭的人,恐怕都得更警惕一点。
因为你以为只是录了一部戏、一档节目,可能已经有人,把这些当成免费开放的“训练素材库”了。