要是将信任当作商品来对待,那么信任的崩塌或许就仅仅是一次技术升级所引发的事件。让人感觉后背发凉的,并非有人的钱财被骗了,而是被骗的方式极其像是真实发生的。
先说一个最讽刺的场景,在直播间里,有人看到了一张熟悉的脸,这张脸属于李梓萌。与此同时,还听到了熟悉的声音和熟悉的说话语气。
她说话的语气端正、克制、权威。于是,观众下单了,然后事情开始失控。很快,骂声来了。央视主持人带货割韭菜?国脸也下场赚钱了?
可真相出来的那一刻,比骗局本身更荒诞,直播间中的很多人,并不是李梓萌。
那是一段由人工智能合成的视频。其脸部看起来是真实的,声音也似乎是真实的,就连说话的节奏都模仿得比较接近。唯一不真实的地方在于,这个人自始至终都不存在。
她一分钱都没有得到,但是很多麻烦的事情却确实地降临到了她的身上。这并不是明星出现失误的情形,而是信任被他人恶意地进行了操控。
问题的关键实际上并非鱼油或者保健品是否值得的问题,而是这样的状况:当技术能够完全复制权威感时,普通人应该借助什么来辨别真假?你觉得这只是个别情况?不过,这才刚刚开始而已。
被精准挑中的,从来不是随机对象接下来轮到全红婵,她的名字本身就具备情感价值。努力、寒门、天赋、拼命。
骗子就换了一种方式操作,不再售卖所谓权威的内容,而是开始售卖情感产品。
在人工智能合成的视频里,全红婵借助她的声音,售卖土鸡蛋以及农产品,嘴里一直叫着叔叔阿姨。
不是劝你消费,而是求你帮忙,结果可想而知。粉丝选择相信,于是支付了款项并收到了物品,但最终发现实际情况与预期完全不符。
紧接着,愤怒反过来作用于真正的全红婵,一部分人辱骂她,另一部分人骚扰她的家人。
但实际的情况是,她在那个时候正处于封闭训练的过程当中,说不定都没有机会接触到手机。
这才是AI骗局最狠的一点:它不只骗钱,还制造对立。受骗的人对代言人满怀怨恨,而真正的祸首却隐匿在算法的背后数钱。
当谣言升级为“死亡通知”时,随后,轮到成龙。这一次,连商品都省了。一张AI合成的病床照、几行耸人听闻的文字。
成龙去世,传播速度快得离谱,情绪也被推到极端,直到成龙自己发布相关动态,很多谣言才停止传播。
但你细想一下:假设某一天,生存和死亡都能被人工智能大量制造,那么到底什么才是真实的?国家出手,不是因为明星倒霉,很多人说,这是明星倒霉的事,不对。这是国家必须出手的信号。
因为被收割的,不只是那几个公众人物,整个社会所依靠来运转的信任机制也被收割了。
当央视主持人、奥运冠军、国民演员都能被低成本复制时那下一步是谁?医生?专家?基层干部?
这并非夸大其词,而是技术已呈现的实际状况。
AI自身并没有什么过错。但是当AI被用于精准模仿权威、情感以及道德标签的时候,它就成为诈骗工具,并且是效率最高的那类诈骗工具。
最危险的,不是被骗一次,最危险的是你开始不再相信任何东西。
看到权威,你犹豫,看到善意,你怀疑,看到求助,你冷漠。
这正是黑产最想要的结果。那么这一次,整治的并非某一个主播或者某一个账号,而是已经形成的灰色产业链。
也希望所有人记住一件事:真正应当质问的,并非李梓萌、全红婵或成龙。真正应该被质问的是很多隐藏在技术背后的操盘者。
要是信任被精准收割了,再去将其重建起来,这比开展反诈工作要困难得多了。