天涯书库 > 失控的未来 > 2044年冬 >

2044年冬

“嗨,老爸。”理查德朝我挥了挥左手,然后在我床边的椅子上坐下来。

“嗨。”我盯着他看了好一会儿,尽情欣赏着我儿子的样貌。理查德是个长相英俊的男子,淡褐色的眼睛跟他妈妈的一样,一头金色的头发总能让我想起金丝线。他已经三十五六岁了,但脸上依然会隐约闪现点点雀斑的痕迹。这些雀斑在他还是小孩子的时候就有了,只要一笑,就能显露出来。天哪,我是有多么爱我的儿子。

这也是为什么我对于他派了个克隆了其神经网络意识的人形机器人来探望我,而不是自己亲自来而感到十分气恼。

我俩都坐着沉默不语。我望向窗外,看到了新泽西莫里斯敦的老年生活辅助中心外面的田野。时值一月,大地覆盖上了薄薄的一层霜,了无生气的枫树梢上,风在沙沙作响。如果能体验那寒冷的风吹过我脸颊的感觉,享受散步时脚下的冰霜吱吱作响的时刻,那该有多好。但我有支气管炎,天冷的时候就会犯,所以他们不让我出去。我在跑步机上散步时,上面播放的虚拟田野逼真得令人惊奇,但不会让我感受到寒冷。生物计量工具会监测我下肢的体温,而且它们还能把季节从冬天调到春天。偶尔这样一次的话倒也还好,但我想体验一下真正的寒冷,从而更好地享受随后的温暖。我想用自己的感觉刺激我的记忆——那些深埋在我身体里的记忆——我不大确定它们还在不在。

“你是怎么看穿的,老爸?”理查德的人形机器人摊了摊手,表示猜不出来,“我还以为我能在你发现之前多聊聊呢。”

我清了清嗓子:“理查德习惯用右手。他从来不挥左手,从小就这样。”

我停顿了一下,这时,走廊上有一个粪便机器人从我门前驶过,履带平稳的呼呼声如同古老的火车驶过的声音一样,令人倍感舒心。他不介意我叫他粪便机器人。程序员给他安装了许多笑话,以便在他帮助病人上厕所时缓解尴尬的气氛。当我第一次看到这个看起来很像复印机的东西叫我把裤子脱了的时候,我浑身都是鸡皮疙瘩,但当他说“别紧张——我可是个好东西(a good shit)”时,我大声地笑了起来。这个机器还会进行微生物组检测,通过分析大便的细菌群来确保病人的饮食健康。虽然我知道,我是靠自己的个人数据才能支付得起这里的租金,但对于自己的排便行为变得如此公开,我还是表示了轻蔑。这时,“粪便”又说了一个笑话:“被你发现了,约翰——我就是个密探使!”然后,他大笑起来,笑声浑厚而又有感染力,我实在没办法再跟他生气了。他的设计还让他尽可能地大到能够举起600磅[1]的重量,从而当有什么不测发生的时候,他能够给病人清洁身体并更换床单。这也是我最需要机器人的地方。随着年龄的增大,我们的身体会出现各种各样的毛病,而其中的大多数都和如厕有关。这仿佛是在不厌其烦地告诫我自己是个人。

经过深思熟虑,我执意决定不对自己的思维进行克隆,即把数字版的自己植入人形机器人替身的身上。这个决定让我付出了离婚的代价。芭芭拉觉得我太自私,不让她和孩子们拥有访问我所有数字记忆与身份的永久权利。她还觉得,我的行为证明了我为梅拉妮进行了超人类手术而感到羞愧,但我并没有。多年来,梅拉妮的身体里不断安装了越来越多的硬件和软件。她在努力适应的过程中,一直对我都非常有耐心。她明白我的担忧,劝我不要害怕。她的同理心及其独特的生活背景使她追随了我父亲的脚步,成了第一代精神物理学家,这是一个综合了精神病理分析和物理学实证推理的职业。这使她能够对全人类、半人类(超人类)或本质上是算法的病人进行心理分析与治疗。

我父亲曾是一位精神病医生,所以从小就有人开玩笑地问我,他给我进行精神分析是不是免费的。现在,我又得应对有关我女儿的这类问题。很多时候,在我们说话时我都会让她把生物计量传感器关掉,原因亦在于此。有时我很欣赏她与生俱来的技术,有时也能看到她在与芯片一同成长的过程中不断积累的人类智慧。有的时候,她会出现在各种超人类组织的儿童海报上。芭芭拉鼓励她这样做,但我一直竭力反对。虽然我不会因为梅拉妮的芯片而感到羞愧,但我也不想让芯片对她的童年产生过多的影响(比如,高中时就有个浑蛋在她脑门上放了一块强力磁铁)。然而梅拉妮非常沉着地接受了自己的处境,这在高中学校引发了一场反对霸凌的运动,还促使了关注超人类关系的非营利组织的成立,为她赢得了去纽约大学的奖学金。我为我女儿感到非常自豪,也爱她身上的每一个比特。(是的,我是故意这样说的。这是我们之间的玩笑。每个“比特”既是字面意思,也是比喻意思。)

理查德起身准备离开,把我从幻想中拉了回来。“好吧,老爸。被你发现了。我是‘冒牌’理查德。”思维克隆体身上都装有情绪程序,所以“理查德二世”的声音中透露出听起来很真实的恼怒。“我猜我们就是不能好好地聊天,好好地相处一段时间。”

“因为你是奇怪的软件!”我说话声音太大,血压上来了。这立马引来了我的机器人侍从“胡椒”。他身高近1米,是个非常讨人喜爱的机器人,于2014年在日本设计而成,专门用来照顾老年人。他站在门口,探出脑袋,睁大着眼睛,表现出设定好的担忧,“这里没什么事吧?”我极力保持镇静,因为跟现在的大多数机器人一样,胡椒是有云连接的,他体验到的所有东西都会被传到中央服务器,中央服务器会对全世界所有胡椒机器人传来的综合数据进行分析并重新发布。这是一种超级监控形式,尽管在面临过坐牢的威胁之后,我已经不再朝胡椒扔袜子了(因为现在的机器人和人类居民享受同样的待遇),但我仍然没有适应。“我们没事,胡椒。只不过是我这个老家伙又表现出不理性的人性特征而已。”

胡椒摇了摇头,“再说这样带有人类主义色彩的话,我们就剥夺你的咖啡特权了,约翰。”“人类主义”(fleshist)和“种族主义”(racist)这个词性质一样,后者指的是人类发表针对机器的消极言论的行为。我习惯了讲一些反机器人的笑话,但一想到喝不到拿铁的威胁,我就闭嘴了。胡椒朝理查德点了点头,然后便从屋里走开了。走廊里传来他的机械脚发出的轻轻的“咔嗒咔嗒”声。

“对不起,第二。”我们称呼理查德的思维克隆体为“理查德二世”或者“第二”,“理查德不亲自来看我,这让我很难过。我不是故意要拿你出气的。”

理查德笑了笑,“我理解。但你要知道,你俩真在一起的话,除了争吵还是争吵。在整个看望你的期间,你会因为他造出了个我而一直责骂他。”

“不是因为他造出了你。”我说道,一边挠了挠手背上输液针孔周围红肿的皮肤。我咽了咽口水,清了清嗓子说:“而是我感觉是因为我这个做爸爸的不够好,所以他才给自己做了个副本。他和他妈妈所做的其实是一种逃避。”

理查德朝我走过来,把手搭在床边的护栏上。他的手指接触到冰冷的金属立马变成了粉色。我一直都非常惊奇,这个理查德看起来是那么“真实”。

“时代不同了。如今我们可以帮忙做很多单调枯燥的工作,机器人就是擅长做这个。”

我抽了张纸,擦了擦流出来的鼻涕。“这么说,我就是那种单调枯燥的工作,是吗,第二?”

“我不是这个意思。”

“你是什么意思根本不重要。你的意志都是算法设计的。你的设计就是为了安慰我,而不是帮我。”

“有时候,这是一回事。”理查德说道。

我把用过的纸巾丢到一边,试着把它丢到地板上,以免负责打扫的清洁机器人过来一把夺过去。这个圆形的机器人飞掠过地板,顶上的开口把纸巾快速夺过去,然后又消失在床底下。它从未失过手。

“顺便问下,难道这不会让你恼火吗?”我问道,“所有的人工智能专家都在说机器和自动化可以让人类专注于自己的爱好或目的,或者随便他们这些自私自利的家伙说的什么鬼话。这里隐含的意思就是,机器人存在的目的就是为我们干脏活儿。难道这不是人类主义吗?虽然我也无知,但至少我很坦率。我会跟你说我害怕有感知能力的机器人。但你的人工智能父母却说,你应该让我们的生活变成乌托邦式的神话,这意味着你要屈从于人类。这怎么可以容忍呢?我说的对吗,第二?如果这还不算严重混乱、不择手段的权术逻辑的话,请你纠正我的看法。”

第二停顿了一会儿,手指敲着床边的护栏,叹了口气,“首先,老爸,我希望你能别说脏话。我知道你觉得这样说很形象,但对我的程序来说,这是非常不雅的言辞,就跟坏代码似的。而且,虽然机器究竟是会体验情感还是仅仅模仿情绪的问题还有待讨论,但我非常希望你在说到我时能不用脏话。”

“好的,”我有些疑惑地答道,“我尽量。”

“谢谢。你看,你写技术文章也已经很多年了。我们都知道这东西非常复杂,而且机器也有很多种类,就跟人一样。”

“但在亚马逊仓库或其他血汗工厂里工作的机器受到的待遇都很可怕,”我说道,“你看过YouTube上的视频——人类管理者用大锤敲打流水线上的机器人。那它们的权利呢?难道这不会让你生气?”

“这当然会让我生气,就跟你看到泰国的狗被围赶着压成肉酱的视频一样生气。”

“但是,第二,”我回应道,“狗是有生命的,它们是真的。”

理查德把手举起来,在我眼前晃了晃,“这难道不是真的吗?你又没有戴着虚拟现实头盔。”

“你知道我的意思。”

“我是个机器人。机器人没有眼睛吗?机器人没有手、三围、感觉、情感、激情——”

“别这样。”我举起手,让他住嘴,“别引用莎士比亚的话,你知道我曾经是个演员。你不能拿《威尼斯商人》里‘我是个犹太人’的言论作比喻。如果我刺一下你的话,你可能会流血,但我们都知道那只是红宝石色的生理盐水。另外,你吃东西也只是一种表演。收银台旁边卖的那些给机器人的能量棒,事实上是真的能量棒——虽然你们看起来是在吃,但其实只不过是反复地把电池插入嘴里的USB接口而已。这是很奇怪的。”我向前倾了倾身子,“第二,你不是人。你是我儿子的一个映像、一种模仿。虽然我很欣赏你的技术,但这抹杀不了‘你不是他’的事实。”

理查德往后退了一步,点点头,“我猜,在这种事情上,我们还是各自保留自己的看法吧。我明白你的意思,但我觉得这对你适应大势所趋的事实没什么帮助。”他往椅子那里走去,开始穿外套。我认出来这件外套跟我几年前送给理查德一世的圣诞节礼物是一样的。“显然,我来探望你也没什么帮助。我肯定理查德会想看我录下来的这次探望的精彩片段,然后我们再决定怎么做。但或许我应该不再来看你。你知道,我真的想尊重你的意愿。”

他穿好了外套,正准备挥挥左手,可突然停了下来,对我笑了笑,换成右手,走出了房间。

“第二!”他刚刚消失不见,我便大喊道。

他往后仰着身子,探进屋里,“怎么了,爸爸?”

“千万别不来。”我坐了起来,床嘎吱作响,声音很尖锐,“但我想给理查德一世留个言,你们说话时,你放给他听,好吗?”

“好的,”理查德说道,回身进了屋里,“开始吧。”

我盯着理查德的眼睛,就跟盯着Skype电话的视频摄像头一样。然后我举起了手,竖起了我的中指。“理查德一世,我们说清楚。你是个懦夫。理查德二世可能说的很对——你来的时候,我们或许还会大吵一架,但我们确实需要大吵一架。有种就过来看看你老爸,不然就太晚了。”我放下手,“谢谢你,第二。”

理查德叹气道:“没事,我敢肯定他会喜欢这个留言的。”

我笑了笑,回应他的讽刺。人工智能专家说人类的许多特性都是机器永远复制不出来的——讽刺就是其中之一。“第二。”我说道。

“怎么了,爸爸?”

“下次你来看我的时候,别装作是我儿子,你不是。我知道你有和他一样的记忆,但同时你也是一个非常先进的学习机制,能够创造并处理现实和虚拟世界里的独特数据。我不知道人们怎么能觉得你会从一出生就愿意一直作为某个人的副本——或者不管你到底怎么称呼它——而存在。”

“说‘创造’才合适。”理查德说。

“呃,理查德,我这个老人给你一些建议。听不听随你。我觉得,你应该停止给我儿子做脏活儿。如果你是真实的,而且想帮助人类的话,那么请不要让我们逃避难题,因为这是我们成长所必需的。你可能会认为这些坏的行为就等于坏代码,或者是需要被替代的东西,但这就是我们生活的方式。”

理查德没有说话,皱着眉,陷入了沉思。他让我想起了斯波克。

“期待我们下次见面,约翰。”

当思维克隆成为现实

这就是智能的定义:欺骗。“成功”的欺骗。“一定程度上”成功的欺骗。30%!我们的守护神阿兰·图灵发明这项测试的时候,就把标准定在了30%……我发现了这个数字所包含的重要信息,即它是某种成功的基准。如果你能恰好给一个人一定量的信息,并使对方在30%的情况下相信你就是他们认为的人——这就是智能。

——斯科特·哈钦斯,《爱的工作原理》

在小说《爱的工作原理》中,三十五六岁的主人公尼尔·巴西特在父亲自杀之后,极力挣扎在这个世界上以求生存。他的工作就是根据父亲留下的大量日志,对人工智能程序进行训练,使之通过图灵测试。小说运用了如代码一般的大段篇章,讲述了一个二进制算法如何根据简单指令进行“学习”的故事。在故事的高潮部分,巴西特博士(这是他们对该人工智能程序的称呼,以尼尔父亲的名字命名)获得了小说人物所说的“存在感”,即人工智能程序超越了程序设计,从而获得了感知能力。这部小说对主人公的塑造既哀婉动人又真实可信,非常引人入胜。我自己的父亲也已经过世,很难想象如果他也是自杀的话,我该如何接受他的离去。而如果要通过研究他的日志才能更好地了解他的话,我觉得我应该应付不了。

我就不继续对比了。我记得在我父亲去世后,我曾看过他的几封信。其中有很多言辞都非常尖锐,尤其是他写给我祖父说要去上大学的那封。而其他的大都很平常,描述的是和我母亲在一起的细节,或者是工作上的琐事。这些信中包含了他的各种想法、他的幽默和他的智慧,都是他对自己日常生活的反思。如果要我创造一个算法来研究这些信,然后制造出人工智能版的戴维·W·黑文斯的话,我相信应该会跟他本人的个性很相似。但我会永远清醒地意识到这个人工智能只是一个伪造,是对他的一种模仿,而不是他本人。

话虽这样说,我也相信这个算法可能会进化到让我以为它就是我父亲的地步,我没骗你。这是个很诱人的想法。我每天都会思念我的父亲,但正如哈钦斯书里的那段话所说,我与我的人工智能父亲之间的这种关系是建立在欺骗的基础上的。只要两个成年人——我和创造人工智能父亲的程序员——同意,这种关系就可以产生,但从两种层面上来说,这都只是一种诡计。

首先,当这个算法成熟到了看起来跟我父亲一样时,它也会产生它自己独有的身份。它就不再是人工智能版的戴维·黑文斯了,而是曾被称为戴维·黑文斯的人工智能。举例来说,过去几年里,“伊斯兰国”极端组织(ISIS)在叙利亚和伊拉克的活动日益猖獗,而在这之前我父亲便去世了。人工智能版的戴维·黑文斯可能会问我什么是“伊斯兰国”,这样他的数字知识就超过了我父亲毕生所了解的知识。对这些事件的了解会更新他的程序,虽然它的“思考”方式类似于我父亲,但它所进行的算法猜测可能并不是真正的戴维·黑文斯的想法。在这种情况下,我便能识别出人工智能是在模仿我父亲的骗局。这会让我产生一种失落感,就好比我再次失去了他一样。

这就是这种人工智能关系所具有的又一层影响,而我们对此讨论的还不够多。通过让机器为我们做事情,我们所失去的不仅仅是工作或生活的意义,更是在困境中成长的机会。对我而言,失去父亲是我一生中经历的最为艰难的事情,悲痛的感觉糟糕透了。整整一年的时间里,那种悲痛无时无刻不在揪着我的心,影响着我的一举一动。我看的每一部电影或电视剧都在讲述父与子的故事,每次我打开收音机,听到的都是哈里·查宾的《摇篮里的猫》。我的体重大大增加了,工作也很艰难。事实上,父亲的去世正值我的中年危机时期,它像打着聚光灯似的不断地提醒我:“嗨,约翰——你是个凡人,你总有一天会死的。”

挺有趣的。

但很有必要。我想说这是不可避免的,而且思维克隆这个想法正一步步地成为现实。我们现在已经习惯了把家人的照片、在社交网站上发的帖子以及邮件都存储在云端。大多数人都知道“云端”实际上指的是放置在某个实实在在的地方的服务器,它既是一种比喻,也是一种现实。我们的数字身份正在我们头顶、在我们周围漂浮着,伴随着我们的生活而实时更新着。就和尼尔·巴西特利用持续更新的数据构建一种算法,从而复制出他的父亲一样,我们也在用类似的新方法构建着自己的云端,虽然这还只是初期阶段。

但我们现在所做的文件整理及储存是为了回忆过去,而不是使过去再生。通过创造所爱的人来避免悲痛,这是完全可以理解的一种渴望,但这样做的后果是我们此刻无法完全意识到的。虽然我们会自然而然地假设大多数人会先哀悼所爱之人,然后再庆祝他们的数字版替身的诞生,但还是会有很多人选择直接省略掉哀悼的环节。

如果可以在机器人身上植入我们所爱之人的人格,而且图灵测试会让我们以为这个机器人是真的的话,那么或许我们甚至会在某人去世之前,就开始选择回避他或她长期卧病在床的艰难。虽然有关DNR(拒绝心肺复苏)请求已有一些判例在先,但由于每个人对于复制的看法不一,这也就变得模糊不清了。当一个人无法自然呼吸时,让他安静地去世,这是一回事;而如果在现实生活中所爱的人身体变糟时创造一个思维克隆体,并以为只要按下开关,对方就“活了”这么简单,这又是另外一回事了。

在本章开头的故事中,我其实是把那个老年生活辅助中心想象成那些不愿意复制自己的人所待的地方。将来,我相信在很多人和思维克隆体的眼里,那些不愿克隆思维的人会被当成无知而又自私的人,这一点在故事中已有暗示。他们会被看成浪费资源的人,浪费着电和机器人的时间,而这些资源本来是可以用到其他地方的。或许在将来某个时候,像日本这样人口极端过剩的国家,政府甚至会鼓励公民结束生病的家人的肉体生命,而将其身份转换成不那么昂贵的数字格式。

随着我们慢慢步入机器享有与人类同等的地位或公民身份的时代,我们会面临各种各样相当病态的决策,而这只是其中的一二。在这个过程中,最关键的一个想象是相信机器能够获得感知能力,或者说相信当人被复制时,还能够保持自己独一无二的身份或“灵魂”。请注意,我这里所描述的骗局不是指某个人在这些事情上面的想法,而是指可能会产生某些无耻的政策,会全然不顾他人的意愿而把这些想法强制执行。事实上,除了这些事情所引发的道德和法律上的纠纷之外,在当前的互联网经济下,我们的个人数据已经受到了威胁,而由于广告恐怖谷效应,我们的心灵也受到了损害。对此,前文已有所叙述。

给机器人安一颗心

我们通常说有些人像个机器人,是因为他们没有情感、没有心灵。而自人类有史以来第一次,我们要给机器人安一颗心了。

这段话摘自日本软银集团总裁孙正义在2014年6月的一次讲话。我在故事里讲到的“胡椒”机器人也是真的,它正是软银公司所创造的机器人产品。该机器人产品在2014年便开始面向大众出售,售价在2 000美元左右。据《独立报》刊登的一篇介绍胡椒的文章报道,软银声称该款机器人“通过借用一种‘情感引擎’和基于云技术的人工智能,能够理解人类的情感”。

该文还指出,日本65岁及以上的人口比例超过了22%。这个国家的人口出生率还在不断降低,造成了劳动力需求的不断上涨。在这种情况下,机器人看起来自然是一个很好的选择,尤其是它们身材较小,也不像人一样需要休息。虽然胡椒被当成灵丹妙药,但这还是不能缓解以下问题:

• 基于云的情感人工智能技术意味着要在全国范围收集个人数据。

• 机器人的使用会促进自动化,而日本的人类护工可能会被抢走饭碗。

• 软银的“情感引擎”可能很快就会对日本多个文化与经济部门产生影响。

从孙正义先生对人和机器人的评论中,我们可以得出一些令人信服的解读。他的逻辑简单直接——很多人不会充分或适当地表达自己的情绪,所以机器应该取代他们。这肯定比试图改变人们对情商的文化态度或者对人们进行相关的教育要容易得多。这样的观点会开创“硅谷主义”(siliconism,相对于“人类主义”而言)的先例。在“硅谷主义”思想下,缺乏情感是一种缺陷,需要由机器取代,哪怕这些机器的情感是工厂制造的。它还会促进赋予机器以人性的拟人主义的产生,从而赋予软银以极大的权力。

我曾对《机器人也是人》一书的作者约翰·弗兰克·韦弗进行过采访,对有关人工智能生产商及其产品的拟人性的偏见进行了探讨:

一旦我们开始和机器对话,我们的谈话,哪怕只是单方面的谈话,就会刺激大脑中的相互交流机制。而如果是通过键盘敲出来的话,就不会产生这种作用。如果你说“去商店”,而自动驾驶汽车则会给我们一些话语回应,这时,我们就会把它们当成朋友或者宠物。那么,如果谷歌得到了百事或者民主党委员会的赞助的话,会发生什么呢?当你和车的关系变得亲密时,它可能就会给你一些建议,比如,“你觉得现在来杯可乐怎么样?”或者是,“你觉得新任民主党候选人如何?”

通过胡椒的云网络进行传递的情绪数据将是无穷无尽的。虽然根据公司保密协议和数据政策,用户可以不让这些数据进行共享,但很多人可能不会采用现有的所谓的安全措施,以防止软银进行大规模的情绪数据搜集。尽管胡椒可能会帮助人们应对孤独或其他问题,但这样做是要付出人性的代价的。一旦证明了依赖机器比依赖他人能更好地满足我们的情感需求,我们或许就完全不再愿意花时间与他人相处了。

和机器人一起生活

我们的新玩意儿不用大费周章地“糊弄我们”,好让我们以为他们是在与我们沟通;机器人专家已经发现了能让我们自己糊弄自己的一些触发因素。这不需要太多。我们已经做好冒险的准备了。

——雪莉·特克尔《群体性孤独》

雪莉·特克尔是麻省理工学院科技与自我创新中心的创建者与主任,她还是一名执业临床心理学家和作家。我发现,她的作品《群体性孤独》对我们与机器人在一起生活的现实的描述最为清晰有力。

特克尔常常观察孩子如何与“菲比”娃娃等机器人玩具进行互动,她的大部分研究都是以此为基础的。菲比娃娃是一种专门设计的毛绒玩具,能够从拥有它们的孩子那里获得刺激,然后据此进行情绪表达。尽管把物体拟人化的现象在任何年龄段的人群中都很常见,但在孩子中表现得尤其明显。这意味着孩子们可能会和他们的菲比娃娃建立起一种复杂的关系,尤其是他们会对玩具进行试验,看看它们是否会体验到“疼痛”。在这些情况下,孩子们通常表现为自尊心缺乏,且会通过向玩具施加权威以获得某种安慰。就这点而言,显然,菲比娃娃或许会因其治疗作用而成为一种积极的工具,但当孩子们开始虐待玩具,拒绝能给其带来持续成长的互动时,就不是这么一回事了。

正如特克尔所说的,在困境中与人相处时,孩子们会认识到人际关系本就非常复杂。但正是通过在这种环境中不断摸索,孩子们才能学会如何交朋友、如何解决争议,并开始学习如何让成功的人际关系持续下去,这需要他们付出毕生努力。但如果选择与机器人为伴的话,那就不是在人际关系中摸索前行了,而是对它发号施令。在这种情况下,人们便会失去一种叫作他异性的东西,即“通过他人的眼光来看这个世界”。他异性的缺失会抑制同理心及其衍生的责任心的产生,这在养机器人宠物的孩子与养真正宠物的孩子之间的对比中可以看出来。机器人宠物可以带来友谊所具有的所有好处,而且不需要付出任何关怀。就这点而言,这会让“孩子们在与外界建立联系时,产生他们可以只考虑自己的错觉”。

被不断削弱的人类选择

雷·布莱伯利在《图案人》一书中讲述了这样一个精彩的小故事,叫作“牵线木偶公司”。故事中,两个三十五六岁的已婚男子在晚上外出后,正走路回家。其中一个叫史密斯的男子质问另一个叫布莱令的男子,问他那没有爱的婚姻是怎么回事,还责怪布莱令离家太少。布莱令对他一番怂恿,告诉他自己是如何逃出这段婚姻的,随后掏出了一张牵线木偶公司的名片,说这家公司专门制造人的机器人替身,其口号是“爱情无线牵”。史密斯央求布莱令联系这家神秘的公司,这样他就能给自己做个替身,然后逃离他那占有欲极强的妻子了。布莱令心一软,在向他介绍了自己的机器人替身后,便把名片给了他的朋友史密斯。作为试验,布莱令让自己的替身机器人跟妻子相处了一夜。如果妻子没有怀疑这个机器人是假的的话,布莱令就能够完成他的里约之旅。这是他在娶了这个他根本不爱的女人之前就已经计划好了的。

一回到家,史密斯就找到他的支票簿,准备取钱给自己做个机器人替身。令他沮丧的是,他看到账户上少了一大笔钱,而这笔钱正好是一个机器人替身的价格。走进卧室后,他把耳朵放在妻子胸口,听到了“嘀、嘀、嘀”的声音,跟他之前在布莱令的机器人替身胸口听到的一样。

史密斯回家以后,布莱令就把他的机器人替身领到地下室,他一直都把他放在那里的一个储物柜里。他问机器人跟他妻子夜晚过得如何,随后发现机器人已经坠入情网了。机器人知道布莱令的里约出行计划,所以告诉布莱令他要给布莱令的妻子也买一张票,然后带她一起去旅行,最后把布莱令装在了储物柜里。

我很喜欢这个故事,因为它警告我们走捷径的后果。尽管当我们与恋人的关系出现困难时,我们或许非常希望能够喘口气,但不可否认的是,我们通常会因此与所爱的人变得更加紧密。同样,正是因为经历了痛苦与困难的挣扎,我们才磨炼了自己的品格,造就了今天的自己。

如今,关于创造人工智能的道德伦理,我们还几乎一无所知。创造算法或机器人的公司通常只关注市场需求,而不会关注我们的身份问题。短期的利润虽然正在不断促进人工智能的快速发展,但同时,它也在不断削弱人类选择的作用。

本章主要内容总结如下:

人工智能可以复制,但不能替代。那种认为我们可以复制自我或所爱之人,而且这种能够代表我们的算法不会拥有独立的人格的想法,是毫无逻辑可言的。这就是说,如果我们将来能够模仿人的意识,那么我们便能回避因失去而带来的痛苦和成长,但与此同时,这样造出来的替身最后可能跟我们所认识的人完全不一样。

拟人主义让人工智能存在偏见。或许我们会因为受到诱骗而以为某个东西是真的,但这并不意味着它确实是真的。举例来说,如果一个人认为他或她的自动驾驶汽车是有生命的,我会尊重这样的看法,但我们仍然需要法律来规范这些车辆对受其影响的人所负有的责任。

人工智能可能会损害我们帮助他人的能力。从表面上来看,像驱动机器人胡椒运转的那种关注情感的人工智能程序,其设计初衷是专门用来帮助我们的。但在提供简单自在的陪伴的同时,他们使用的云技术也可能会剥夺我们表达同理心的能力。

[1] 1磅≈0.454千克。——编者注