最近李湘因为一张“释永信亲吻她手背”的照片被全网扒皮。这事其实早就有答案了——2008年那场采访,几十号人围着拍,灯光敞亮、话筒对准、摄像机全程开着,根本没这回事。可这张图还是疯传,连她15岁的女儿王诗龄都被拉出来比脸型、算笔画,说她可能是释永信的女儿。真荒唐。
这图不是P的,是AI生成的。技术人员后来扒过,边缘模糊、手形歪斜、光影不自然,连释永信袖口褶皱方向都不对。但普通人哪会细看这些?点开就转,转了就骂,骂完还觉得自个儿在“主持正义”。2025年8月李湘发微博说:“十几年前仅一次工作采访而已……甚至连AI合成都用上了。”配的是一张当年大合影,她和释永信中间隔着两位嘉宾,笑得跟公司年会似的。
AI造谣现在太容易了。随便找个高清旧视频,喂进开源模型,加点动作指令,5分钟就能出一张“像模像样”的图。更绝的是,很多人把图发在小论坛,再用“独家猛料”“内部流出”当钩子,引流到微博、抖音这些大平台。算法一看点得多、骂得多、转发快,立马推给更多人。清华有研究说,这类谣言的传播速度是真实新闻的3.2倍。不是大家蠢,是设计得太懂人了——专挑情绪下手。
法律其实早有动作。江苏有个案子,男的用AI换脸伪造前女友不雅视频,被判诽谤罪,坐了半年。2026年新出的《人工智能安全治理框架》也明确写了,开发者如果没加显著标识、没做实名认证,得跟着一起担责。还有平台,抖音今年已经用AI检测拦下400多万条换脸视频,但微博、小红书上很多账号还在用“李相”“李香”这类谐音躲审核,发完就删,换个号再发。
图片来源于网络
普通人该怎么防?第一,别见图就信。可以用Google反搜,看图最早在哪出现;或者装个Adobe Content Credentials插件,查查有没有数字水印。第二,想想逻辑对不对:一个电视台主持人,去少林寺做个文化采访,回来就和方丈扯上私生女?现实里连微信都没加过,怎么可能?网警教过一个办法,叫“常识悖论”——离谱到违反生活常识的,八成是假的。
李湘不是第一个被AI坑的。之前李凯馨被拼出“辱骂中国人”的录音,最后靠法院判决才洗清;京剧演员李胜素和于魁智也被剪辑成吵架现场,造谣者直接被行政拘留。模式都一样:断章取义→情绪煽动→全网围攻。区别只是,以前靠嘴编,现在靠电脑算。
现在有些平台开始强制打水印,腾讯“幻核”已经在试区块链存证。微博也改了推荐规则,对没标“AI生成”的内容减流。上海还弄了个“随申办”辟谣接口,明星上传证据,24小时内全网统一标“系AI合成”。但这招只能堵漏,没法断根。
真正难防的,是那种发完就跑、账号注销、服务器在境外的人。他们不为钱,就为看热闹;不为名,就为刷存在感。李湘忍了18天才发声明,不是不敢说,是怕越解释越乱。结果她一开口,反而更多人去翻原始视频,发现当年她问的问题有多狠:“您对‘魔僧’这个称号怎么看?”“九位女孩住在寺里,您真不知道?”释永信当场出汗,扶眼镜、清嗓子,一句硬话没敢说。
图片来源于网络
这些细节没人剪进短视频里。因为流量不要真相,只要标题够刺激。
现在网上还有人在传那张图,只是打了码,换了个名字,藏得更深了。
这事没完。