未经授权的“明星AI拜年”视频走红网络,专家提醒存在法律风险

韩国明星 1 0

IT之家 2 月 8 日消息,据中央广播电视总台中国之声今日报道,临近春节,短视频平台上掀起一种别样的“拜年方式”。熟悉的影视巨星、体坛健将、商界名人,甚至历史人物在屏幕里“拱手作揖”并说着吉祥话。数字经济学者刘兴亮表示,这些视频的核心是当前人工智能最前沿的

深度合成技术

,包括两个关键部分:视觉合成、语音合成。

其中,视觉合成即“AI 换脸”或 DeepFake(IT之家注:深度伪造,简称“深伪”)等技术,其利用深度学习和计算机视觉算法,通过大模型学习真实人物的面部特征、表情、嘴型等信息,然后将这些特征合成到新的素材中,从而让画面看起来像是真人在说话。而语音合成则是

模仿名人的声音、语调甚至语气

,使 AI 生成的声音更逼真。将两者结合起来即可生成“AI 拜年”短视频。

中国政法大学人工智能法研究院院长张凌寒表示,未经他人授权直接使用相关权利人的肖像和声音,侵害了当事人的人格权,其中

包括肖像权、声音权

。声音的权利也参照肖像权保护的相关规定。若合成的声音

可能涉及造成他人侮辱、诽谤,损害他人声誉,可能构成名誉权侵权

。如果使用的声音来自

受著作权保护

的录音制品和作品,或者说他人声音已经

被注册为商标

了,可能还涉及侵害

著作权和商标权

等。如果使用他人声音,又没有经过他人同意,也违反了行政法规的相关规定。

此外,《互联网信息服务深度合成管理规定》也明确,提供人脸、人声等生物识别信息编辑功能的,

应当提示使用者依法告知被编辑个人,并取得其单独同意

刘兴亮表示,正规的大型 AI 服务平台和一些专业的视频合成工具,已经开始尝试加入一些

防止滥用的机制

。比如强制添加 AI 生成标识或者水印,让观众一眼就能分辨出这是合成内容。还有在用户协议中

明确禁止未授权使用他人的形象和声音

。部分平台还在后台建立了

内容检测和过滤机制

,利用 AI 自身来识别疑似深度合成的视频。但真实情况是,现在仍然有很多工具

没有足够的防护机制

,特别是一些开源模型或者小型应用,可能根本没有添加标识或者监管的限制,给滥用留下了空间。

中国政法大学知识产权中心特约研究员赵占领表示,必须履行好主体责任,建立全链条管理机制。AI 的经营者、平台企业应当

尽到主体责任

,应当严格落实相关的管理办法所规定的标识义务;要提供便捷的工具,也应建立

事前提示、事中审核和事后追溯

的完整机制;在接到权利人发出的侵权通知之后,应当

及时采取删除等措施

;如果没有采取相应措施,应当就损害扩大部分承担连带责任;

公众也应当增强法律意识