AI仿声有多像?连本人都难辨!多位知名配音演员相继公开维权

内地明星 1 0

近日,多位配音演员相继公开发声,反对未经演员知情同意,擅自采集其声音素材用于AI训练、音色合成及商业变现的行为。

有评论认为,目前AI仿声侵权已经形成了一条“素材采集—内容生成—流量变现”的灰色产业链。同时,AI仿声侵权比AI换脸更隐蔽,维权难度更大。配音演员的声音是如何被“偷走”的?又该如何破局?

1

从《甜蜜蜜》里的黎小军,到《无间道》中的刘建明,配音演员叶清塑造了许多经典的人物形象。不久前,短视频平台上出现了一集AI生成的短剧,许多观众通过弹幕刷屏:主人公的旁白是“叶清老师的声音”。然而,这并不是叶清本人录制的。

接受媒体采访时,叶清坦言,AI短剧里对他的音色还原度极高。

叶清:旁白就是我的声音,但我一听,它对文字的表达方式又和我不一样。这些东西没有经过任何许可,让我们的声音满大街都是,可能有人会觉得配音演员没有价值了。

类似的经历在配音行业中屡见不鲜。配音导演、配音演员李龙滨也经常成为这种侵权行为的受害者。“有些相似度能达到百分之九十以上,连我自己都要仔细分辨一下。”

未经授权的AI仿声,给配音演员和整个行业带来前所未有的冲击。季冠霖曾为《甄嬛传》《疯狂动物城》等知名影视作品配音。在一个魔改印度版《甄嬛传》中,季冠霖的声音被仿,在她本人听来,虽然声音很像,但角色不像。

她认为,在艺术层面上,无序发展的AI仿声消解着配音演员的表演能力和情感流动,降低了配音行业应有的艺术水准和价值。不仅如此,还让配音演员面临诸多法律风险。

季冠霖:它可能会说很多过分的语言,甚至是违反公序良俗的语言。未来如果用我的声音生成了一段违法的、行骗的语音,或者是虚假广告,该怎么去界定它是AI还是我本人?

向下滑动查看配音演员声明

↓↓↓

2

针对未经授权的AI仿声带来的行业与个人困境,法律层面是如何界定的?中国政法大学人工智能法研究院院长张凌寒表示,AI仿声不仅可能侵犯配音演员的声音人格权,还可能侵犯相关影视剧作品的著作权。

然而,多位业内人士及法律专家认为,在实践中,如何认定AI仿声侵权、如何去监管,目前有现实的难题。

首先是取证链条弱。网络传播的AI语音多为碎片化二次加工,难以追溯源头和固定完整侵权链路。

另一个难点是“鉴定”难。声音容易被剪辑、篡改、变速,AI微调音色、语调等就可以做到高度相似,甚至可以把几个人的声纹捏在一起。从技术层面上维权非常难。

那么,该如何探索AI技术与配音行业的合法共存模式?叶清认为,首先声音使用方应正视法律问题,通过合规的手段取得授权并恰当使用AI仿声技术。

中国政法大学知识产权中心特约研究员赵占领表示,行业自律与平台规则同样是构建合规生态的重要一环。在监管政策还没有出台的情况下,网络平台、AI软件平台可以禁止用户未经授权使用他人声音进行AI生成。

多位受访者还呼吁,未来希望通过加水印等技术手段,为AI声音搭建可追溯、可识别的安全框架。

专家表示,如何在AI声音中嵌入水印,仍然需要统一规范的技术标准。另外,高质量且有商业价值的配音演员可以把声音和声纹进行单独备案,以便将来更好地追责。随着监管制度、标识制度和取证制度的逐步完善,对于配音演员声音的有效保护机制也能够迅速建立。