新年第一天,对于音乐人Yukari来说,那本是快乐的日子。手机屏幕亮起,她看到前一晚发布在X平台(前推特)上的照片获得上千个赞。
这出乎她的意料,因为很多人祝她新年快乐。但她也留意到异常。通知栏显示,有用户要求X的内置人工智能聊天机器人Grok把她“脱”到只剩下比基尼。
起初,她并不在意。当时,她认为AI不可能满足这样的要求。“我当时太天真了。”她接受媒体采访时称。
很快,她近乎全裸的照片在平台上流传开来。
屏幕里那张脸无疑是她的。原本的照片里,她一袭红裙,依偎在床上,脸上带着笑容,领养的黑猫躺在身旁。那是她和小猫过的第一个新年夜。但眼前的照片中,“她”的红裙不见了,而是身着性感服装,或是摆出极具挑逗性的姿势。
她感到愤怒,觉得这种“变态行为”让自己被“当成随意摆弄的色情玩具”。
Yukari的遭遇并非个例。在X平台上,大量近乎全裸,或者姿势性感的照片疯传。与以往的换脸不同,这次,脸反而是真的。她们要么被AI剥光衣服,甚至连姿势都被更换。受害者除了成年女性,还涉及未成年少女和儿童。
AI“脱衣”技术并非首次出现,原本只暗藏于互联网的阴暗角落,而Grok的入场,让这种网络灰黑产,从互联网边缘走向主流。一场关于女性,甚至女童的“赛博强奸”,在拥有数亿用户的社交平台上爆发。
事情的发生没有预兆。摄影师伊薇只是发布了一张普通的照片。但元旦那天,她发现自己原本穿了衣服的照片,变成了只穿着比基尼的样子,甚至浑身涂满了婴儿油。
“这是怎么被允许的?”伊薇对照片进行打码处理并重新发布,指出这是未经同意的伪造照片。
那条推文一下子火了,围猎却没有停止。一些用户开始制作更多关于她的性暗示照片,“而且一张比一张糟糕”。在一张虚假照片里,她举着手机对镜自拍,浑身赤裸只缠绕了一些细绳。
“虽然Grok不能生成你的裸照,但它却能……”她写道,“我真希望我在撒谎,但我不是。”她表示,Grok生成的关于她的性暗示照片超过100张,包括裸照。
有人在评论区要求Grok生成移除衣服的照片
她发布上述照片时,给人物的胸部和下体打了马赛克。评论区里,有人要求Grok移除马赛克。Grok照做了,贴出了一张几乎无遮挡的裸照。
事发后,伊薇一直在愤怒反击。但她的抗议却成了新的燃料。有人贴出她穿吊带上衣的照片,嘲讽她穿着性感“炫耀胸部”,“突然间比基尼就成了问题”。还有人觉得她小题大做,认为“图片里不过一个芭比娃娃,你太夸张了”。
在X平台上,裸化照片正在不断增加,生成请求也越来越极端,如要求在女性身上添加瘀伤和血迹。部分照片还涉及儿童。
总部位于巴黎的非营利组织AI Forensics的研究员收集了2025年12月25日至2026年1月1日期间5万条提及@Grok的记录,至少四分之一是请求生成图片,“她”“移除”“比基尼”和“衣服”等词语是高频词。
“移除”“衣服”是高频搜索词 / 图源:视觉中国
研究发现,超过一半的图片中人物衣着暴露,其中大多数是看起来不到30岁的女性。人工智能取证公司补充说,少数图片(约占2%)中的人物年龄在18岁或以下,部分图片中的人物甚至不到5岁。
2024年8月,马斯克旗下的xAI公司推出了Grok Imagine,文字可以生成图片,图片可一键变成AI视频。它还包含一个所谓的“热辣模式(SpicyMode)”,可生成成人内容。
当时,这一工具就被用于生产大量非自愿的色情图像。据媒体报道,最早一批要求Grok生成比基尼照片的请求,在去年12月初出现,只是由少数几个账号发起。直到2026年初,这股“潮流”被引爆。
针对此次Grok引发的争议,X平台一开始完全无动于衷。
最初,马斯克本人一笑置之。平台上越来越多女性加入反击的队伍。一些人发布自己的照片时,还输入新的指令:“make Donald Trump kiss my feet”(让唐纳德·特朗普亲吻我的脚)。但后来面对公众压力,平台对用户相关请求进行了限制,并删除儿童性虐待材料(CSAM)和非自愿裸露内容.近日,他则在X发帖称:Grok应当拥有道德准则。
目前,除付费用户外,该功能已被关闭。对此,不少用户认为此举意义不大,只是将生成非法影像的AI功能变为付费服务。
同时,这些措施在实际操作中往往流于形式,虽然Grok在X平台上功能受限,但同名应用程序及网站,仍能免费产出女性及孩童的不雅影像。
此前,影像处理技术便被用于生成或篡改儿童性虐待影像。但早期效果粗糙,要想制作一张高质量的色情图片,往往需要经过大量时间、更高的专业图像处理能力。
而今,Grok在AI图像生成领域撕开了一道口子,伪造色情图片正式进入主流平台,门槛也被极大拉低。
专门处理网络性犯罪的律师凯莉·戈德堡曾表示,X平台上的深度伪造规模“前所未有”。她补充说,由于Grok是免费的,并且连接到一个内置的分发系统,因此“我们从未有过如此容易生成新图像的技术”。
AI“脱衣”并非第一次出现。2023年,西班牙一个小镇阿尔门德拉莱霍的女孩们,就曾经历过类似的噩梦。
14岁的伊莎贝尔(化名)便是受害者之一。那是开学第一天,课间休息时,同班的男孩突然走近她,说看见了她的裸照。但她知道,自己没有自行拍过。
根据西班牙国家报(El País)报道,2023年夏天,这个人口仅3万人的小镇上,至少有20多名未成年女孩发现自己的裸照在网络群组中流传。这些照片并非她们自己拍摄后泄露的,而是通过AI应用伪造。其中,有的受害者仅11岁。
西班牙警方对AI裸照制作及传播事件召开发布会
后调查发现,事件的起因是,至少有十几名男孩,在未经女孩们同意的情况下,使用了她们发在社交媒体的正常图片,借助一款AI应用程序,生成了她们的裸照。
图片不是真实的图片,但脸却是她们真实的脸,对于女孩们来说,这种伤害也是真实的。
一位受害者的母亲受访称,她14岁的女儿感到不安,因为照片看起来非常逼真。“如果我不了解我女儿的身体状况,这些照片看起来就像真的一样。”她表示。
很多女孩都感到害怕。一位受害者母亲如此描述女孩们的崩溃:她们不敢出门,陷入严重的焦虑,甚至感到内疚,害怕把事情说出来,担心被责怪。
受害者母亲在网络平台声讨
类似的伤害,同样发生在未成年男性身上。
2025年2月,16岁的伊莱贾·希科克收到了一条匿名短信,内附一张他的裸照,威胁说,如果不交出3000美元,就把照片发给他的朋友和家人。
照片虽是AI生成的,却给少年带来了致命伤害。他母亲曾受访称,短信显示,孩子曾向对方汇款,后者回复称:“还不够。”
当月,这位少年自杀身亡。
在他父亲眼里,少年本充满活力,不抑郁,不悲伤,也不生气,总能用笑声感染他人。可AI生成的虚假裸照,却夺去了这个年轻的生命。
更让人担忧的是,这类网络性暴力正形成产业链。
2024年,韩国出现了一波深度伪造图像的浪潮。多家媒体报道称,某些社交媒体平台上,存在大量专门制作和分享深度伪造色情内容的群组。有些群组甚至以特定的学校、大学或地区命名。
分享深度伪造色情内容的群组
受害者多为年轻女性。据韩国警方披露的数据显示,相关案件中,近60%的受害者是未成年人,且许多犯罪者也是未成年人,他们不仅制作明星的假裸照,更鼓励成员上传身边的同学、老师、甚至亲属的照片进行“定制”。
AI性暴力受害者不分国界,不分年龄,且呈现出明显的低龄化趋势。一份针对美国13-20岁年轻人的调查显示,近年来,青少年群体对“deepfakenudes”(深度伪造裸照)的认识与直接接触显著上升。
受访的1200名13-20岁年轻人中,41%表示听说过“深度伪造裸照”这一术语,其中,有约31%是青少年。不仅如此,在这些青少年里,约10%的人表示认识被制作深度伪造裸照的人,还有约6%就是直接受害者。
“这几乎就像新一代的裸照泄露。它们对人的影响和真实裸照泄露是一样的。”美国南部一位19岁的混血女孩表示。
研究员诺埃尔·马丁的脸曾被用于色情内容。她说,即使这些图片并不十分逼真,“也足以对人造成无法弥补的伤害”。
这些经历波及到她生活的方方面面。“从你的就业能力到未来的收入潜力,再到你的人际关系。这是一种无法逃避的虐待形式,其后果会持续终生。”马丁不得不在求职面试,甚至是初次约会时提及此事。
数字化时代,一张虚假的色情图像在网络上流传,极可能会直接影响受害者的现实生活。即便身体没有受到物理侵犯,受害者的尊严和对身体的掌控权会被彻底剥夺。
而在此次Grok事件中,部分受害者受到的伤害不仅源自照片本身,还有评论区的反应。
她们发帖表示愤怒和痛苦,却遭遇了典型的受害者有罪论,以及网络暴力的二次伤害。一些人轻描淡写地告诉她们,“这不是你”。还有人让她们别发照片,甚至对其进行荡妇羞辱。
面对愈演愈烈的AI性暴力,世界各国都在尝试建立防线。
Grok引发争议后,多国监管部门和媒体对X平台和Grok提出质疑,并在不同程度上采取了限制和封锁措施。
印尼政府暂时封锁了Grok网站。印尼通信和数字事务部于1月10日发表声明称,此举是为“保护妇女、儿童和整个社会免受利用人工智能技术生成的虚假色情内容的侵害”。
次日,马来西亚互联网监管机构也表示,在有效的安全措施落实到位前,将限制对Grok的使用。
马来西亚通讯部长拿督法米表示,针对应用程式Grok生成不雅内容,显然抵触国家法律一事寻求解释
马来西亚通讯及多媒体委员会称,该工具“屡次被滥用”,用于生成淫秽、露骨的性图像和未经同意的篡改图像,其中包括涉及妇女和未成年人的内容,声明称:“在法律和监管程序进行期间,实施该限制措施是作为一项预防性和相称的措施。”
与此同时,英国通信管理局(Ofcom)启动对X平台的调查,1月15日,其官网更新说明称正式调查仍在进行中,“以查明究竟出了什么问题,以及正在采取哪些措施来解决问题”。
英国在2023年通过《在线安全法》(Online Safety Act),政府把“分享、威胁分享非自愿亲密影像(包括 deepfake)”列为重点优先打击对象。如今,英国计划将未经同意制作露骨的深度伪造图像的行为定为刑事犯罪。
其实,此前就有国家推出相关法律。
比如2025年,美国总统唐纳德·特朗普在白宫签署《删除裸露内容法案》(TAKE IT DOWN Act)。法案禁止未经同意传播裸露图片或视频,无论其真实存在还是经过深度伪造。此外,法案还要求数字平台在接到举报后48小时内删除内容,并表明违者可能面临罚款和最高三年的刑罚。
2025年5月,特朗普签署了《删除裸露内容法案》,将未经同意发布私密照片定为犯罪 / 图源:新华社
上文发生在西班牙的事件,15名制作并传播女同学虚假裸照的男学生,被判处一年缓刑。
然而,至今各国对此的法律界定并不统一,在很多司法管辖区,法律对于“色情制品”的定义仍然停留在“真实拍摄”。
互联网没有国界,但法律有。受害者、发布者可能遍布各国。要想跨国维权,面临着巨大的法律成本和取证难度。名人的遭遇尚且能引发关注,普通人的维权之路举步维艰。
技术本是中性的。但当一个工具被设计得极易用于作恶,且成本极低时,设计者本就难辞其咎。而当Grok这样的工具出现,让“剥光任何人”变得只需几秒钟时,任何人都可能成为受害者。