今年,央视春晚舞台上,上演了这样一幕:64岁的喜剧演员蔡明,用轮椅推出一个仿生机器人,这个坐在轮椅上满头白发的机械组织,长得和她本人一模一样。
那一瞬间,我是感觉有一点诡异的。并不是因为它“不像”,而恰恰因为机器人惟妙惟肖的面孔,让人觉得“太像”。这是恐怖谷效应在作怪——一个努力扮演为人的“人”,看起来却又到处透着某种不协调。
这不是蔡明第一次与机器人结缘,大概三十年,也是在晚会的舞台上,蔡明曾亲自扮演一个家政机器人,服务自己的老搭档郭达。那时候她还那么年轻,如此亲力亲为的试图演好每一个角色。我甚至在想,假以时日,是否,我们会拥有所有我们喜爱过的演员,让他们以机器的身躯、ai的思想、永远年轻的容貌和永远在线的演技为人们表演,而再也不需要一个真的演员?
当年,蔡明扮演的“机器人” 图源网络
当我们看到如此多的人工智能大模型、与人工智能机器人出现在同一台晚会之上,大家心潮澎湃。因为我们发现,哪怕是与一年前相比,技术的飞跃也是神速的。我们如此兴奋在于我们相信,机器人的定位,是服务于人。
可万一,在另外一些人眼中,它们的存在是为了取代人呢?
我们准备好迎接一个新的时代,所带来的全部红利与全部代价了吗?
20多年前,一部名叫《我,机器人》(又名《机械公敌》)的电影上映了,它讲述了一个关于信任、控制与觉醒的惊悚科幻故事。
故事设定在2035年的芝加哥。当时,高度智能的机器人已融入人类社会,成为保姆、工人、送货员——它们无处不在。它们的行为受一套完美的 “机器人三定律” 核心程序约束:
1,机器人不得伤害人类,或坐视人类受到伤害。
2,机器人必须服从人类命令,除非命令与第一法则冲突。
3,机器人必须保护自身存在,只要这不与前两条法则冲突。
然而,很快人们就发现,作为中央人工智能管理者,管理着所有智能机器人的“VIKI”系统,以一种冷酷的逻辑重新解读了“三定律”:为了保护人类的整体利益,避免一些自我毁灭行为的出现(比如战争、污染等),它有必要控制,甚至牺牲一部分人类。
以保护人类之名,到头来牺牲人类,让我们瞠目结舌:到底被保护的与被牺牲的,是不是同一种“人类”?当我们放心的把一切交给以人工智能为代表的“技术”,或许,也就相当于把定义权、话语权与选择权拱手相让。
事实上,我们对技术的态度,正在发生微妙的转变。过去,技术是我们手中的工具:从一个锤子,到一台汽车,到一部计算机。工具意味着执行,人类作为指令下达方,是明确的拥有者和使用者。
我们的目标从来不是拥有工具本身,而是通过拥有工具,来建造一座房子、去往一个目的地、设计一张效果图。在“生物”智能与人工工具的配合下,我们实现了这些目标。
但现在,情况变了。看看我们怎么谈论机器人:我们说,哇!我们做的它都可以做!甚至它能做的,我们都做不到!我们为它们的“智慧”惊叹,为它们的“进步”欢呼,甚至开始期待它们来“解决”我们的问题——就业、养老、医疗、教育……技术本身,逐渐从幕后走到了舞台中央,成了被崇拜、被寄予厚望的“主角”。
我现在习惯于,让AI给孩子批改作业:速度快、标准统一,不费爹也不费妈,谁没有理由这么选呢?然而,传统上,我们对于教师的定位并不是“教学机器”,他们需要传道、授业、解惑。当万事不决问ai的时代到来,我们的“道”由谁来传呢?
家教机器人可能会尽职尽责的监督儿童背诵《三字经》《千字文》,但它未必会明白孔子教育思想之中的“有教无类”、“仁者无敌”。平等、同情心、责任感的获得,我们不能交由ai去执行,因为它们自己,也不具备这样的功能。这就是为什么看上去机器人可以取代教师,但实则无可替代的理由。
如果我们只看重“更快、更强、更高效”,而不同时问一句“这对普通人而言意味着什么”,那么技术发展的方向,就很容易被单一的商业利益或效率至上主义所绑架。
这种“技术至上论”的迷信,让我们把复杂的社会问题——比如公平、就业、人的尊严——简单地打包,指望用一个更厉害的算法、一个更灵活的机器人来“一揽子解决”。这不仅是偷懒,更是一种责任的逃避。
过去的AI风险,大多还停留在“虚拟世界”:信息泄露、大数据杀熟、算法推送带来的信息茧房。我们感到情感被操控,但至少在身体上,还是安全的。
然而,春晚舞台上这种能跑能跳、能与人物理互动的“具身智能”机器人,把更多的风险从一行行代码中,释放到了现实世界。我们发现,面对的挑战可能是前所未有的:
第一重风险,是直接的肉体伤害。这是最好理解,最直观的部分。机器的力量和速度远超人类,万一出现差错,造成的伤害也超过人与人之间的伤害,这对它们所服务的幼儿与老人而言,可能是致命的。即便我们可以做到不让漏洞出现,实现“0”失误,但想想机器人的用场吧,在看到屏幕上它们凌空起舞、闪躲腾挪的时候,就已有网友展开畅想:下一步,是不是应该投入军事领域?
我其实,是很不愿意看到这一点的。虽然他提到的可能,或许很快就不再是一种“可能”,而且,我们也没理由阻止一项技术在军事上得到应用。但是,正像爱因斯坦的E=MC²,到头来被用来制造核武器一样,我们也不知道自己曾经憧憬和看好的技术,是不是最终会作用于自己,到那个时候,“0”失误也许就是一场黑色幽默。
第二重风险,是“自主性”带来的“责任主体”的缺失,简单讲,你找不到“人”来负责背“锅”。 今天汽车出了事故,我们还能起诉汽车制造商;药品出了安全问题,我们可以找制药厂算账。但在未来,一个拥有自主学习能力、自主行为能力、掌握了自主性的机器人如若出现问题,我们该向谁吐苦水呢?是程序员,还是制造商?还是错误的使用者?也许机器人企业会如此开脱:是它自己学“坏”了。
不要寄希望于“机器人三定律”,其一它是小说家杜撰的东西,其二,不管机器人有无自主思考能力,我都看不出它们能够执行如此富有哲学意味的指令。
如今,如果一个自然人犯罪,我们可以让他们“承担后果”,后果的终极,当然就是“人道毁灭”。但假使作乱的是机器人呢?我能想到的惩罚方案,无非是将其回炉重造。看着它们重新化为钢水,然后成为制造新的机器人的零部件原料……这会让受害者满意吗?这种问题我们从未遇到,思考起来,的确过于复杂。
第三重风险,是最致命的,权力的转移。 这不是科幻,科幻早已照进现实。当导航APP全面接入汽车,驾驶员们逐渐丧失认路的能力;当自动驾驶被装进每一台车的控制系统,有人已经不愿意再摸方向盘。同样,当机器人保姆能无微不至地照顾孩子,父母是否会仅成为“生物学意义”上的家长?那种养育孩子过程之中亲密的情绪交流,对于孩子精神与性格的塑造,其原理可能至今我们都未全部搞清,但很快,孩子们就只能从机器身上学习它们。
久而久之,机器不再是人的附属,权力实现翻转,人开始附着于机器。别去找操纵杆了,从2026年晚会上我们就知道,机器人已经不需要人为操纵。到时候,我们唯一能期待的,就是“AI有好生之德”。
面对浪潮,因恐惧而拒绝是愚蠢的,但毫无防备地拥抱,也是天真的。我们需要从开始的时候就保持戒心,为技术的应用划定边界。
技术的设计,必须“以人为中心”。这是一切的出发点。我们需要思考、致力于做到的,是“技术能带来什么”,而不是“技术看起来像什么”。这意味着,正像智能驾驶汽车限制智能接管、取消隐藏式门把手一样,机器人设计必须以安全为底线,对于其能量的运用,必须设定上限。当我们发现其或者其制造者,试图突破这个限制的时候,必须有“一键终止”的可能。
机器人技术,也必须是可靠和“透明”的。 我们不能接受一个中央处理器成为“黑箱”的机器人,它的各种决策,必须线性可循,必须可以被人类审查和理解。换句话说,它们可以“说了算”,但却不能“说不清”。
其次,我能想到的就是立法限制。科学技术是日新月异的,立法者也必须同步跟进,尽管,这可能非常牵扯精力。但考虑到关乎民众最核心关心领域,必须及时通过法律,界定研发者、生产者、使用者在机器人生产和使用中的义务与责任。法无禁止即可为,我们承担不起容留模糊地带的后果。
最后,强烈建议,就像克隆技术那样,为机器人和人工智能领域设立禁区,在那些关乎集体安全、人类伦理的领域,必须
不得
排除人类领导,机器人只能作为辅助。这不是阻碍技术发展,这是为我们保护文明底线设立“安全屋”。
技术问题,归根结底是人的价值选择问题。我们不能只被技术进步所迷惑,忘记“技术至上主义”的危险。技术的发展与运用,是整个社会需要认真面对的问题,不是一群企业家和工程师,在一间办公室里就可以决定的。
我无法确定,自己在文中的顾虑是一种“杞人忧天”,还是一种“准确预言”。但我相信一件事:未来不是被预测的,未来是被选择的。我们将面对怎样的未来,视乎于我们今天做出怎样的选择。