遭AI盗脸,演员王劲松怒斥:太可怕了!

内地明星 1 0

2月26日,演员王劲松的一条发文冲上热搜,这位老戏骨怒斥自己的形象被AI盗用合成视频,

直言“太可怕了,视频。声音、口型完全看不出来真假。

”就连他的家人都分辨不出视频里的人是不是真的他,这一遭遇让不少网友直呼细思极恐。

据悉,王劲松以仿冒混淆他人为由向平台发起投诉,很快视频号团队就受理并删除了相关侵权视频,可即便如此,王劲松的担忧丝毫未减。

他在评论区和网友交流时坦言,此前也遇到过AI伪造的内容,但都制作粗糙,一眼就能看出假,可这次的逼真度让他措手不及。

更让他揪心的是,侵权者仅仅是被删除视频,几乎没有付出任何实质性代价,这种“不疼不痒”的处理方式,很难形成有效震慑。

王劲松对此表示了担忧:虽然视频删除了,但侵权者的代价可以忽略不计,谁能保证,这种钻法律空子的擦边球,最后不沦为犯罪的手段?

日常易遭遇的6类AI核心风险

在苏州大学科技传播研究中心主任、数字传播系主任、国家社会科学基金重大课题《“欺骗性人工智能”的信息传播、社会影响与风险治理研究》首席专家王国燕看来,王劲松的遭遇并非个例,这只是AI侵权的一个缩影,随着AI技术的发展,技术门槛越来越低,曾经看似离普通人很远的AI造假,如今已经悄悄来到了我们身边,她分析普通人面临的AI风险,可以分为以下几类:

1. 仿冒身份诈骗:这是最常见的风险,骗子用AI克隆亲友、领导、同事的面部和声音,通过视频、语音发起借钱、转款要求,甚至伪造办公场景、家庭突发状况的画面,逼真度极高,很容易让人放松警惕。

2. 肖像/声音被盗用牟利:随手发在社交平台的高清照、原声语音,可能被无良商家或个人盗用,AI合成后用于直播带货、虚假广告、短视频引流,甚至制作低俗内容,不仅侵犯肖像权、声音权,还可能损毁个人名誉。

3. 个人信息被滥用训练模型:网上发布的照片、视频、文字内容,可能被未经授权的机构或个人收集,用于训练AI生成模型,你的个人特征、说话风格会被AI学习,后续可能衍生出更多侵权行为,且本人往往毫不知情。

4. AI生成虚假信息误导认知:有人利用AI批量生成虚假新闻、聊天记录、截图等,可能针对个人制造谣言,或误导大众的判断,比如伪造的消费评价、职场谣言,轻则让人产生误解,重则影响个人工作和生活。

5. AI代写/造假引发的责任风险:用AI代写作业、工作报告、简历,甚至伪造学历证书、合同文件,不仅可能因内容雷同、信息虚假被发现,面临学业处罚、职场失信,若伪造文件涉及法律层面,还可能承担相应法律责任。

6. 智能设备AI权限泄露隐私:手机、摄像头、智能音箱等设备的AI功能(如面部识别、语音助手),若权限设置不当或设备存在漏洞,可能被破解,导致日常对话、生活场景被偷拍偷录,个人隐私被泄露。

AI风险防御方法,简单易操作

面对AI带来的潜在风险,王国燕提醒大家,日常做好这几点防护,就能大大降低中招的概率,这些方法简单实用,人人都能做到。

基础防护:守好个人信息,从源头减少风险。

1. 社交平台不随意发高清正脸照、原声无修视频/语音,发照片可适当打码、裁剪,隐藏面部特征;发语音/视频可使用变声、模糊美颜等功能,避免个人特征被精准收集。

2. 关闭社交账号的“陌生人可见”权限,朋友圈、视频号等内容设为“仅好友可见”,及时清理过往发布的露脸、露个人信息的内容,不随意留真实手机号、住址在公开平台。

3. 关闭智能工具中不必要的AI权限,使用 AI工具尤其是各类 AI 换脸、修图 App时,注意查看其隐私协议,非必要时关闭APP的“相机、麦克风、面部识别”权限,涉及重要原创内容时可关闭大模型中“允许使用我的数据训练模型”的选项。智能摄像头避免对着卧室、客厅等私密区域,定期更新设备系统,修复漏洞。

日常警惕:提高辨别力,避开即时性诈骗/误导

1. 凡是遇到视频/语音要求转款、借钱的,无论对方多熟悉,都不要立即操作,一定要通过电话、线下见面、共同亲友二次核实,骗子常利用“紧急情况”催促,沉住气核实就能识破。

2. 看到来路不明的截图、视频、新闻,先看发布来源是否正规,对“离谱的消息、完美的宣传”多留个心眼,AI生成的内容往往存在不自然的细节漏洞,或者画面过于完美无瑕,仔细观察就能发现。

3. 不随意使用非正规的AI工具,比如不知名的AI换脸、语音克隆APP,这类工具可能会偷偷收集你的面部、语音信息,尽量选择正规平台的AI产品,且不轻易授权个人信息。

4. 用好“照妖镜”。新版国家反诈中心APP增加了“AI内容鉴定”功能,可上传可疑视频/音频进行鉴别。

遭遇侵权不慌,留存证据及时维权

让人无奈的是,面对这些AI侵权行为,普通人维权并不容易。一方面是取证难,AI合成的内容技术含量高,想要证明其为伪造,需要专业的鉴定,耗时又耗力;另一方面是维权成本高,即便找到侵权者,多数情况下也只是要求平台删除内容,很难获得相应的赔偿,而侵权者的违法成本却极低,这也让一些人肆无忌惮。

但这并不意味着我们只能被动承受,在AI时代,保护好自己的个人信息,提高防范意识,学会用合理的方式维护自己的权益,就是日常最实用的“防身术”。技术在发展,骗子的手段也在升级,我们的防范意识和能力,也需要跟着进步。

中国法学会法治研究所刘金瑞研究员提醒大家:

1. 审慎许可他人收集、使用自己的肖像与声音,发现自己的肖像、声音被AI盗用,第一时间截图、录屏、保存链接,固定侵权证据,同时记录发布平台、侵权账号信息,避免证据丢失。

2. 立即向发布平台发起投诉,依法要求平台删除侵权内容、封禁相关账号,并要求平台提供侵权者的相关信息。

3. 若涉及诈骗、敲诈勒索、造谣等违法行为,直接拨打110报警,借助警方力量处理;若造成名誉损失、财产损失,可通过法律途径要求侵权者承担赔偿损失、赔礼道歉等责任。

他同时也表示,日常也应主动了解AI知识,不盲目恐慌也不轻视,“很多人对AI技术一知半解,要么觉得AI造假离自己很远,疏于防范;要么觉得AI技术太厉害,根本防不住,陷入恐慌。其实我们可以主动了解一些基础的AI知识,知道AI造假的常见手段和风险,做到心中有数。既不轻视AI带来的风险,也不盲目恐慌,用合理方式做好必要防护,并依靠法律手段维护自身合法权益。”

面对AI技术的发展,一方面,我们期待相关的法律法规能够尽快完善,跟上AI技术发展的步伐,明确AI肖像、声音侵权的认定标准,提高侵权者的违法成本,让法律成为保护公民合法权益的坚强后盾。另一方面,平台也需要承担起主体责任,加强技术研发,建立更高效的AI侵权预警、检测和处理机制,从源头上减少AI造假、侵权内容的传播。

只有法律、平台、个人三方共同努力,才能让AI技术在阳光下发展,让我们远离AI侵权、诈骗的风险,真正享受技术带来的便利。