最近,你有没有在短视频平台刷到过“明星”们突然开始热情带货、推荐投资?先别急着相信,那很可能不是他们本人!
全国政协委员霍启刚近日就公开“打假”,自曝遭遇AI换脸诈骗,制作的虚假视频甚至骗过了自己的同事,需要团队每天专门投诉处理。几乎同时,演员王劲松也再次发声,痛斥利用其肖像的AI诈骗视频泛滥。
从公众人物到普通百姓,AI技术滥用的“达摩克利斯之剑”已然落下,“眼见为实”的时代正被彻底颠覆。
这场风波的冰山一角,由王劲松的愤怒揭开。他晒出的诈骗视频截图里,自己的脸被嫁接在陌生身体上,口若悬河地推销产品,更讽刺的是,视频角落竟还带着他主演剧集《冰雨火》的官方水印,欺诈与正版荒诞同框。
这并非简单的恶搞,背后是明码标价的生意。在一些电商平台,以“AI数字人”、“视频定制”为名的服务暗中涌动,声称只需提供照片和文案,就能让任何人“开口说话”,制作一段足以乱真的1分钟视频,最低报价仅百元左右。
技术门槛的极速降低,让伪造名人形象变得像网购一样简单。
霍启刚的遭遇则更显荒诞与贴近生活。他描述自己曾在高铁站,眼睁睁看着自己的脸被挂在陌生店铺的广告牌上。
而更具欺骗性的是那些在社交平台流传的“本人”短视频,内容从公益倡导突然拐向投资理财,因其公众人物的公信力,极具迷惑性。霍启刚透露,连身边的同事都需要“仔细看一段时间”才能识别真伪,普通网友上当的几率可想而知。
事实上,受害名单远不止于此,靳东、全红婵、迪丽热巴等众多明星都曾公开辟谣类似AI换脸骗局,这已成席卷娱乐圈和社会的普遍现象。
AI诈骗为何能如此猖獗,让人防不胜防?首要原因是技术普惠与监管滞后之间的巨大鸿沟。
深度伪造(Deepfake)技术日益“平民化”,而各大内容平台的审核机制却难以跟上。海量匿名小号、“搬运工”账号批量发布,即便被投诉下架,新的账号和视频又能如野草般迅速再生。
对于霍启刚这样的公众人物,尚需组建专门团队进行日常投诉维权,普通人面对这种“打地鼠”式的侵权,更
是维权无门、成本高昂。
更深层的困境在于法律追责的艰难。许多诈骗服务器设在境外,跨境追踪难度大;而现有法律对于这类新型技术犯罪的定性和惩处力度,常常跑不过技术迭代的速度。
这直接导致了社会信任被系统性透支。公众人物长期积累的正能量形象,反而成了诈骗分子利用的“信用背书”。
此前“假靳东”骗走中老年粉丝积蓄的案件令人心痛,如今技术升级,骗局无疑将更具杀伤力。
更令人担忧的是,普通人面临的风险正在急剧上升。诈骗已不再只瞄准名人。
想象一下:家人群里突然收到“子女”发来的视频通话,声称急用钱;求职时,面试视频被人恶意篡改;甚至个人的社交照片和声音被窃取,合成不雅视频进行敲诈……当每个人的生物特征数据都可能成为犯罪素材,隐私泄露与AI技术叠加带来的威胁,已关系到每一个人。
面对汹涌而来的AI诈骗浪潮,恐慌无益,学会自我保护才是关键。对于个人而言,可以牢记并践行 “三不原则” :不轻信突如其来的“熟人”视频借钱或明星“跨界”带货;不转账,任何涉及资金的要求必须通过原有可靠渠道二次核实;不传播未经证实、来源可疑的惊悚或争议性视频。
我们还可以培养一些识别“微表情”的技巧:注意观察视频中人物的口型与声音是否完全同步,眼神注视方向是否自然,脖颈、发际线边缘有无细微的扭曲或闪烁。同时,留意背景音质是否一致,话题是否存在突兀、不合常理的转折。
多一分警惕,就少一分风险。
当然,个人防范终究是底线防守,根本解决还需社会合力。我们应呼吁网络平台切实履行主体责任,例如对AI生成内容进行强制性技术标识或水印,提高算法识别和拦截能力。
法律层面也需加快步伐,明确AI诈骗的法律定性,加重刑罚,形成震慑。此外,社区、媒体应广泛开展 “反AI诈骗” 的公益宣传,尤其加强对易受骗的中老年群体的科普教育。
正如霍启刚在长文中所呼吁的,核心是 “提高大众的辨别意识,避免更多人被骗” 。技术本身是双刃剑,AI不应成为罪恶的“隐身衣”,而更应是推动社会向善的“助推器”。
在这个真伪难辨的时代,保持清醒的头脑和批判性思维,比任何时候都更重要。
你或身边人遇到过AI诈骗陷阱吗?欢迎在评论区分享经历或见解,让更多网友提高警惕!