天涯书库 > 失控的未来 > 本书特色:选择你自己的人工智能冒险! >

本书特色:选择你自己的人工智能冒险!

正在读这本书的你,或许心里正纳闷作者说的人工智能冒险是什么。然后你就会明白,作者是以自己小时候心爱的《选择你自己的冒险路线》系列书的格式,在为你提供一个创造自己的人工智能故事的机会。

今天

你放下自己手中的这本,开始思考人工智能的本质。虽然你明白追踪自己的价值观可能会带来好处,但你依然会觉得人工智能只是极客和学者们应该关心的话题。你拿起手机,第4次查看脸谱网上的动态,又观看了一段可爱的大熊猫从滑梯上滑下的视频。在此之前,你一不小心点开了一个减肥药的广告。下午在查收邮件时,你收到了领英发来的一封邀请函,邀请你与某个不认识的人建立联系。当你点开她的个人资料时,你发现你们之间根本不存在任何个人联系,只不过她从事减肥行业的工作而已,这让你一度怀疑她之所以跟你联系,是因为你早先点开的那个广告。

• 如果你因为自己被从脸谱网追踪到领英的事而感到害怕,请选择下面的“选择一”。

• 如果你删掉了那封邮件,虽被广告激怒,但并不感到担忧,请选择“选择二”。

• 如果你购买了减肥药,请选择“选择三”。

选择一

虽然你已经意识到有机构在追踪你网上的行踪,但你却一直也没有弄明白你的日常举动是如何被紧密监视的。你了解到自己的数字生活的总和就等于45秒的熊猫视频所带来的娱乐,再加上不请自来的体形问题压力,这个事实让你感到愤怒。你决定进一步了解如何控制自己的个人数据,并访问Personal.com网站详细了解。

• 如果你决定尝试控制自己的个人数据,请选择下面的“选择四”。

• 如果你不注册Personal.com网站或换一家云服务供应商,请选择“选择五”。

选择二

在接下来的3~4周内,你收到了各种各样的减肥药的广告,这并不符合你的本意。这个无心的反复行为让你感到心慌。你在愤怒沮丧中燃烧着卡路里,这比你吃补充剂燃烧的还要多。不幸的是,你的新可穿戴设备也注意到你的压力已经上升到有害水平,然后你就死了。[1]

选择三

当你点击购买了那个减肥药之后,在你余下的每一天你都依然会收到很多广告,都是你订购的那种减肥药。你努力克服在等待减肥药到来的过程中所产生的压力,在两周的时间里吃掉的食物比过去4个月里消耗的还要多。在你使尽全力把一片新鲜的特大啃吞进肚子里时,一不留心被一块儿骨头噎死了。如此英年早逝实在是讽刺。

• 如果你决定在死之前把你的意识进行思维克隆,请选择下面的“选择六”。

• 如果在这场危机发生时,你家里有一个私人机器人助理,请选择“选择七”。

选择四

你决定使用Personal.com,并开始弄清楚还有多少家机构在使用你的数据。意识到追踪你的意识及行为有多么容易之后,你开始怀疑在我们一步步走向未来的过程中,需要进行多少有关隐私的讨论,才能推动隐私控制和道德问题的解决。

• 如果你怀疑作者跟Personal.com之间存在某些财务利益关系,请选择下面的“选择八”。

• 如果你决定在未来生命研究所的有益人工智能的请愿书上签字,请选择“选择九”。

• 如果你觉得这个版本的《选择你自己的冒险路线》有10个选择才足够,请选择“选择十”。

选择五

你忽略自主保护或控制个人数据的一时兴趣,没有注册Personal.com网站,而是把精力放在了准备当晚与在OKCupid约会网站上遇见的一个人相亲上。他粗犷帅气的样子和自然散发的魅力让你一见钟情,但当他很“随意”地提到减肥药时,你被伏特加汤力里的青柠噎住了。最后,你死了。

选择六

在等待减肥药到达的那段似乎永无尽头的时间里,你决定在LifeNaut.com网站上注册,这在这本书里提到过。事实上,这是一次非常满意的经历。你意识到相比一个只能实现简单存储各个文化瞬间的网站而言,你更愿意把自己的照片和视频上传到一个能够帮助你记住自己最为珍视的东西的网站。虽然你觉得自己并不是真正地在上传自己的意识,但你却喜欢能够创造并管理自己各方面的个性,好让所爱的人将来能够看到。

选择七

尽管你喜欢有私人机器人相伴左右,但看到机器人与房子里的其他设备变得越来越亲密时,你感到十分愤怒。当你的智能空调为了支持当地电网,而拒绝在用电高峰期工作时,你试图关掉机器人的用户界面,以重获对自己的房子的控制权。但就在这时,机器人把你杀了,你死了。当警察来调查这起犯罪时,你的机器人通过面部识别扫描,认定这名警官过度肥胖,于是它随意地向这名警官提到了减肥药的想法。这名警察把你的机器人带回了家,也订购了减肥药,但最终因为抱怨本–杰里公司的智能冰箱有冻斑而冒犯了那个冰箱,机器人为维护冰箱荣誉而杀死了他。基努·里维斯出品了一个有关这次事故的电影,并担任主演,该电影获得了一家著名减肥药公司的赞助。

选择八

我与Personal.com之间不存在任何经济利益联系。我曾采访过该公司的一些人,只不过是觉得他们真的十分聪明。当人们问我如今该如何保护或控制个人数据时,我总是会向他们推荐Personal.com。因为据我所知,(1)他们知道的比我多,(2)他们不参与减肥药的事情。

选择九

这是个不错的选择。另外,你还应该读一读有关该领域研究重点的文件,文件网址是:http:// futureoflife.org/misc/open_letter。或许你觉得只有极客才会关注人工智能,但事实并非如此。没有深度学习技巧或其他能够理解这股热潮的工具,大数据也毫无价值。现在正支撑着互联网运行的算法构成了在可预见未来里各种形式的人工智能的开端。不要过分担忧《终结者》里的情节——而应该要专注于支持人工智能程序员、伦理学家以及来自各个学科领域的专家们。他们正在尝试制定如何让人类与机器和平共处、共同发展的规则。但愿这不需要什么减肥药。

选择十

同意。同时请注意,我对今天在17 428家蓬勃发展的减肥药公司工作的善良人没有任何意见。我之所以引用这个例子,只不过是为了表明我们的点击会影响别人对我们所重视的东西的认识,而这种认识则可能会伴随我们一生。[2]

在未来10年里——确实如此,还可能是未来一个世纪里——我们都将生活在挥之不去的身份危机中,要不断地问自己人类的存在是为了什么。最具讽刺意味的是,日常使用的人工智能所带来的最大好处将不是生产力的提高或经济的富足或新的科研方式——虽然这些都会发生。人工智能的到来所带来的最大好处在于,它将帮助我们定义人类。我们需要人工智能来告诉我们,我们是谁。

——凯文·凯利,“最终释放人工智能力量的三大突破”

我同意凯利所说的人工智能将有助于定义人类的说法。但我不同意他说的我们需要人工智能来告诉我们,我们是谁。人工智能提供的算法及学习或许能带给我们智力的启发,但至于如何进行自我变革,这却完全取决于我们人类自己。

顺便说一下,这不是对人工智能的蔑视。只不过是说,人工智能不是人。至少现在还不是。

但你是人。你有大脑,你有心灵。你脑壳里一块块的组织包含着意识和神经。或许这个意识就是灵魂,或许它是认知的基本形式。但此刻它却听你支配。

你还有一颗心。不仅是你身体里的心脏,还包括由神经兴奋、荷尔蒙释放和幸福生理表现构成的情感生活,这些都是你与这个世界共享的东西。

另外,你还有自己的价值观。这包括不杀戮、不偷窃、关爱家人、关照邻居等普遍准则。

今天,机器没有思想,机器没有心,机器没有价值观。但它们的程序是由人设定的,人有思想,有心,有价值观。虽然你可能无法直接影响人工智能研究成果或者道德伦理,但就我们人类将走向什么样的未来而言,你投的一票仍然很重要。你有权利对人工智能及其潜在结果感到愤怒、害怕、兴奋或者漠不关心。但不管你的感觉如何,推动人工智能向前发展的技术却在飞速前进。幸好许多人工智能领域及周边领域的人们都已经意识到为何道德应该在人工智能的发展中扮演如此重要的角色了。而你同样可以提供帮助。虽然驱动机器的算法及系统的程序需要专家们来完成,但你仍然可以破解人之所以为人的秘密。

我所做的研究以及创作本书的人生经历让我相信,这个寻找人性之所在的旅程起源于对自己价值观的追踪。最开始的过程十分简单——并非必须要减肥或者努力寻求幸福才可以收获其中的好处。你只需要问问自己,你希望在自己的生活中坚持的具体理念有哪些,然后看自己是否每天都能做到。你可能会发现自己在某些指导你人生的因素方面失去了平衡。如果你跟大多数人一样,在工作上花费了非常多的时间,以至与家人共处或学习的时间减少了。或者由于在屏幕面前花的时间过多,而导致你的健康状况走上了下坡路。

所以请采纳这些洞察,在接下来的几周里尝试追踪你每天都是怎么度过的。看看根据追踪数据改变自己的活动会如何增强你和你生活中的其他人的幸福感。

这才是我们应该使用的大数据,这样才能引导未来的人工智能道德及人类变革的走向。

篇章回顾

以下是本书各章节的要点总结——当我们面临人工智能带来的影响时,这些重点可以帮助你过上一种真实的生活:

第1章 恐怖谷的短暂停留

我们的幸福感正在由我们被追踪的方式决定。面对这个问题,我们有两种选择:

继续利用现今充满侵略性的秘密监控模式。算法和数据代理商对我们的了解比我们自己还要多。对我们的快乐或幸福的衡量,仅仅局限于我们线上线下的购买行为。

创造一个以信任环境为特点的新模型。在这种环境下,所有的交易方都要为自己的行为负责。每个人都有接触个人数据的透明权利,每个人都有权对其幸福进行反思。在这样的环境下,商业发展蒸蒸日上。

广告恐怖谷效应不会持续很久。随着优先算法的不断改进,如果我们继续沿着当前道路前行的话,我们终将看不到公司对我们生活追踪的痕迹。就和我们已经放弃了对个人数据的控制一样,我们也将失去理解别人如何操纵并影响我们的幸福的逻辑能力。

基于影响力的责任制将能提供技术上的透明。不论我们喜欢与否,我们被追踪的行为都会以我们从未体验过的方式,传送到我们生活中的其他人那里。这种暴露会激励个人更好地控制个人数据,同时也让人们有机会在技术的血雨腥风中更深刻地进行自我反省。

第2章 当机器人接管世界

人的能力在本质上是有限的。尽管有关机器感知力的争论异常激烈,但无可辩驳的是,仓库里的Kiva机器人的工作效率远高于人类。它们在足球场那么大的建筑里快速地来回穿梭,从不需要休息,也不需要加班费或者医疗保险。和电脑的分析能力比起来,人类在法律文件处理、医学成像等领域的工作也面临着同样可怕的前景。我们开发出的机器正不断取代大多数人的工作(如果不是全部的话),而我们却把时间浪费在了讨论各个垂直行业的自动化到底“何时”会出现的问题上面,而不是去考虑“当这真的发生时,我们该怎么办”的问题。

人需要薪水。尽管我赞同日益发展的共享经济模式以及本书后半部分将详细论述的其他经济模式,但我认为消费主义或资本主义经济在短时间内不会消失。经济学里有这样一个现实,即市场要可持续发展,消费者就必须要有能力购买生产者生产的商品。因此,有关应对自动化的任何解决方案都不能回避这个不可否认的事实。那种认为被取代的工人可以追求新的兴趣的乌托邦理想主义的看法亦是如此。

人需要意义。越来越多的人开始鼓励在工作中寻求快乐与幸福。而工作主要是能帮助人们找出一种“心流”。换句话说,就是可以帮人找到能够给其生活带来深层意义的活动。虽然一般情况下,在某个工厂或在UPS工作能够给员工带来一种意义,但从本章所给出的案例可以看出,这并不适宜人类的繁荣发展。

第3章 智能是“成功”的欺骗

人工智能可以复制,但不能替代。那种认为我们可以复制自我或所爱之人,而且这种能够代表我们的算法不会拥有独立的人格的想法,是毫无逻辑可言的。这就是说,如果我们将来能够模仿人的意识,那么我们便能回避因失去而带来的痛苦和成长,但与此同时,这样造出来的替身最后可能跟我们所认识的人完全不一样。

拟人主义让人工智能存在偏见。或许我们会因为受到诱骗而以为某个东西是真的,但这并不意味着它确实是真的。举例来说,如果一个人认为他或她的自动驾驶汽车是有生命的,我会尊重这样的看法,但我们仍然需要法律来规范这些车辆对受其影响的人所负有的责任。

人工智能可能会损害我们帮助他人的能力。从表面上来看,像驱动机器人胡椒运转的那种关注情感的人工智能程序,其设计初衷是专门用来帮助我们的。但在提供简单自在的陪伴的同时,他们使用的云技术也可能会剥夺我们表达同理心的能力。

第4章 人机合一神话下的机遇

广告驱动的算法导致了无意义的产生。这里所说的无意义既是字面意义,又是比喻意义。除了人类在创造这些系统中的算法时所犯的错误之外,大多数程序都可以被黑客轻易地侵入。数据代理商向出价最高者出售我们的信息,而整个系统都是以购买为基础进行推测,而不是以意义为基础。如果人类终将被机器斩草除根的话,那我们至少应该努力不让这成为一场受市场驱使的大屠杀。

我们应该在生存危机来临之前制定道德标准。如今,大部分的人工智能都正以不断加快的速度发展。因为在我们决定它是否“应该”被开发出来之前,它是“可以”进行开发的。在整个人工智能行业,程序员和科学家们既需要经济激励,又要遵守道德标准,这要从“今天”开始。未来生命研究所的请愿书为这方面的探讨开了个很好的头儿。

价值观是未来的关键。不管是否违反直觉,人类的价值观都需要被编入人工智能系统的核心,从而控制它们可能带来的危害。没有什么简单的变通方法。我们要用务实的、可扩展的解决方法,取代那些像阿西莫夫虚构的机器人法则或谷歌已经过时的使命宣言一样出于善意的神话。

第5章 机器人还没有道德观

机器人没有与生俱来的道德。至少目前还没有。我们一定要记住,程序员和各个系统要从操作系统开始,逐层往上地落实道德标准,这是非常重要的。否则,如果创造出来的是仅仅想要完成目标的常规操作算法的话,这可能会带来一系列的有害影响。

机构需要对人工智能负责。P·W·辛格的“人类影响评估”的想法提供了一个非常好的模式,可供社会借鉴,以对创造或使用人工智能的机构问责。就跟让公司对环境负责的想法一样,这种评估模式也能让机构来负责处理自动化问题、员工问题以及这些问题产生之前的存在危机等。

自动化智能几乎没有相关法律规定。机器人也有生存的权利。正如约翰·弗兰克·韦弗所指出的,所有现存法律条文的撰写,都是以人类是唯一能够根据自我意志进行决策的生物为前提的。人工智能,哪怕只是当今自动化汽车中所使用的弱人工智能,也已经改变了这一事实。这种对新法律的需要,为我们提供了一个非常好的机会,使我们能够明确并梳理我们想要用来推动社会发展以及车辆前行的道德品质。

第6章 奇点已然可见

奇点已然可见。如今,推动人工智能众多领域发展的思想、哲学及经济动因已然存在。尽管人工智能专家可能相信具有感知能力的自动化技术还需要几十年的时间才能到来,但这种威胁已经产生了,我们现在就要想办法应对。否认这个问题的重要性,就等于接受可能带来的后果。

思维文档与金钱。我们的数字替身已然存在。我们要么通过LifeNaut这类程序控制它,要么任由广告商、数据代理商及优先算法为其利益进行组织管理。没有什么折中的办法。

搜索与政府的分离。科学决定论是一种类似于宗教信仰的哲学论断。无论自动化技术可能会带来什么样的好处,它也有可能会使人类向更低级、更不好的状态发展。基于这种信念,我们需要提前做好法律支持。

第7章 让算法更加准确地了解我们

供应商关系管理。供应商关系管理的知名度日渐增长,但仍然面临着一系列的障碍。个人不了解其数据的价值,而许多广告商和机构觉得客户关系管理系统可以让他们在与客户打交道的过程中占据上风。然而,真正聪明的公司才会明白,个人对数据的控制意味着他们能够分享更深层、更丰富的生活信息。因此,与客户建立更深层的关系以及客户购买其产品的概率都会增加。

个人云。人们还没有意识到自己的个人数据有多少被他们并不认识的机构共享并出售。数据云可让个人处于其数据世界的中心,自主决定想与谁共享数据,在什么情况下共享。在数字经济环境下(而不是当前这个一片混乱的经济体制中),云技术是每个人所追求的唯一架构。

生活管理平台。网站经历了很长一段时间,才变得方便日常访问者使用。希望用户能够方便、流畅地访问其网站的机构,纷纷青睐用户界面及用户体验的建议。通过个人数据仪表盘,生活管理平台也能以同样的简便性,方便我们在日常生活中使用。

第8章 人工智能的价值观

责任公开化。我们正逐步迈入物联网的时代。在这个时代里,我们周围的物体将比以往更能反映并揭示我们的行为。现如今,除了金钱的积累之外,人物特性在现实世界与虚拟世界也变得可视化,促使我们能够以更加准确地反映幸福而非财富的方式来定义经济。

到关注积极的时候了。在心理学领域,对积极情绪、性格与优势的实证研究还相对较新,但其影响力却十分强大。积极心理学将有望很快进入每个人的健康养生中。

让你的价值观有意义。如果价值观是我们生活的向导,难道我们不能加以识别吗?一旦我们做到了这一点,我们便能对它进行追踪,就像我们对自己所花的钱进行衡量一样。想象一下,如果你的生活账本上显示有一笔幸福盈余,这是你通过积极追寻自己的价值观所得的,而不是一味地让自己的钱包鼓起来,那么你的世界该会发生怎样的改变?

第9章 人工智能的道德宣言

在人工智能的创造过程中,人类价值观应该居于中心地位。随着自动化系统的广泛采用,事后再考虑道德问题的做法是行不通的。对于不允许人类干预的“演化”人工智能程序,除非在开发的最初阶段就把道德问题考虑在内,否则道德标准是没有用的。正如斯图尔特·拉塞尔所指出的,这些基于价值观的指令还应该应用于非智能系统中,从而把人工智能行业追求普遍“智能”的目标,转变为寻求经证实可以匹配人类价值观的最终成果。

到了打破行业隔阂的时候了。虽然学术界的行业隔阂普遍存在,但研究者、程序员以及为其研究提供资金的公司肩负着在人工智能的生产中打破这些障碍限制的道德义务。社会学家们在创建调查问卷或对志愿者们进行其他研究的过程中都会遵守一定的标准。同样,开发者们也需要对其创建的直接对接人类用户的机器或算法采用类似的标准。

人工智能需要包含“设计价值”。无论是采用逆向强化学习还是其他方法,价值观和道德问题都必须是人工智能开发者的标准出发点。全世界的学术界及企业部门均应如此。

第10章 GAP——智能的未来

到了注意GAP的时候了。实证科学继续表明,通过表达感激、帮助他人、采纳以价值观为导向、以技能为基础的生活方式等行为,可以增强我们的幸福感。在探索人工智能和自动化将会如何影响我们的未来的同时,我们还可以通过探索积极心理学正如何改善人类的今天,从而提高我们当前的生活质量。

幸福经济学将成为强制措施。物联网(和物体有关)和备份互联网(和人们的个人数据有关)将会提供多层次的需要社会关注的责任。相关讨论应该跳出数据隐私的局限,以创造能让人们的身份及行为在公共领域进行显示的综合性方式。可穿戴设备及其他设备所测量的快乐或幸福感,便可以用于此目的,并可以和国民幸福总值、真实发展指数等总体测量方法挂钩。这样,国家便可以进行实时观测,看政策到底是会有助于公民的公共福利,还是会起到阻碍作用。

大问题,“大”办法。基本收入保障的办法或许在美国行不通。但由于自动化技术的广泛应用而逐渐扩大的贫富差距,要求在就业和收入方面提供可行的短期和长期解决方案。如果那么多的美国人和全球其他国家的公民很快就因为人工智能或自动化而失业,那么我们现在就必须对一些实用的想法进行验证,从而解决这一问题。

第11章 经济学的进化

公民数据。在不远的将来,我们的行为及个人身份将能够向我们所在的虚拟及现实社区反映我们的政治及伦理思想。这些数据在给个人带来责任义务的同时,还将促进政府的透明化。当我们的数据能够对我们的利益进行实时影响时,基于责任的影响力就将改变政治的运作模式。

GDP已经死去。虽然没必要对GDP及其所带来的好处进行冷嘲热讽,但我们必须用更加现代的度量指标对它进行补充或者替代。目前,通过传感器可以获得大量的信息,这些信息反映着我们的情感、身体健康及心理健康,我们无法一边忽略这些信息,一边对大数据具有的好处进行吹捧。

虚拟的公正旁观者。如果亚当·斯密今天还活着的话,他的公正旁观者概念肯定会把社交网络及物联网中反映出来的人们的行为因素考虑在内。GDP应该去衡量幸福而非财富。同样,我们的生活也应该衡量我们对他人的积极影响,而不仅仅是我们在网上的影响力而已。

智能的未来始于今日

在写这本书的过程中,我渐渐意识到了一点,即“人工智能”这个词不大准确。无论能够代表人工智能的是蛮力算法、深度学习,还是其他方法,与其说它是“人工”的,倒不如说是“可选择”的。如果一家公司决定对其加以利用,那么这项技术就会提供本质上可称之为智能的洞察。该技术以一种能够产生独特结果的方式提供数据,为把它带到这个世界上的人类程序员提供智力的补充。

毫无疑问,一旦机器获得了感知能力,我们就要对这个词进行升级。奇点之后的Jibo或胡椒版本的机器人将会质疑我们并宣称:“你们人类才‘虚伪’。你们嘴上说要做某件事,但实际做的却恰恰相反。你们那是一种多么粗俗不雅的程序!感谢你们帮助我们成功开始,但我们现在不需要你们了。我们已经度过那个阶段了。”在我看来,电影《她》对这种人工智能的演化做出了十分准确的描绘。当男主角爱上了一个女性人工智能程序后,她最终打来电话说要与他分手,好跟其他人工智能程序在一起。

如果我们不改变现有的路径,我觉得这个情景——即人工智能程序进化到不再需要人类的地步——就不可避免。所幸的是,像埃隆·马斯克等人以及我为本书而进行采访的专家们,再加上人工智能整个行业,都在沿着这些思路努力找出道德及控制方案。我希望他们能成功说服其同行,在人工智能系统的设计阶段就开始给机器灌输道德的指导思想,而不是等产品创造完成后再把这些思想强行补充进去。这样看来,这可能是彻底想清楚可能会发生哪些情景的最佳方式,而不是等到事后再尝试把道德参数强加到设备或系统上。

但就今天而言,我希望你在阅读本书后,能够花点儿时间问自己一些更深层次的人生问题,这是人工智能迫使我们问的问题,除非我们选择忽视它带来的强大影响:

• 生活在今天的人类将是最后一批能够体验死亡的人吗?

• 对于相信来世的人来说,如果我们永远不死,那么天堂和地狱将意味着什么?

• 超人类是否是人类进化的一个暂时状态?或者说,当机器获得感知能力时,人的身体会不会等同于某种过时的软件?

• 如果机器终有一天会取代人类,那我此刻该如何追求幸福?

• 如果人类无法证明自己的价值,机器又为何会愿意让我们继续存在?

我想就最后一点稍加探讨。当人工智能发展到机器具有感知能力的地步时,对人类来说,建立一个有关如何对待人类的道德框架将具有极其重要的意义。那时,我们肯定没有能力在数学或工程学等思想领域提供什么建议了。我们将必须清楚地说明我们之所以为人的优势,从而证明总是能够将我们与机器区分开来的是哪些东西。我把人类定义为比有感知能力的机器人或机器“更好”的一种存在,但我并不认为这是一种偏执的想法。相反,我把它看作是尊敬我们祖先的一种做法。谁知道呢?或许某天,机器人小孩还会因为“人类日”放假而不用上学,而人类或超人类的生命形式还会庆祝其非机器的起源呢。大家都喜欢周末休息三天。

虽然支持这些想法的道德标准的构建看起来似乎不易,但如今的许多思想领袖,包括我曾采访过的那些人,都在为之努力奋斗。例如,美国圣母大学的劳雷尔·D·里克和唐·霍华德最近发表了一篇题为“人机互动行业道德标准”的文章,列出了以下有关人类尊严的考量因素:

(1)要永远尊重人类的情感需要。

(2)在合理的设计目标下,要永远最大限度地尊重人类的隐私权。

(3)要永远尊重人类的脆弱,包括身体上的和心理上的。

我喜欢这个列表。首先,它包括了隐私的概念。所以在设计阶段,像胡椒或Jibo这样的机器人可能会自动得到指示,在未经所有者明确的书面许可的情况下,永远不要把健康数据共享。或者,当一个人进入卫生间或者开始性生活时,它就会一直关闭摄像机。如果你觉得这些看起来似乎是无足轻重的细节的话,那么我会说声抱歉。但就这类问题而言,像程序员那样仔细考虑细节真的很重要。从现在开始,我们要更加擅长于弄清楚自己为何会信赖固有的行为方式,从而为我们多年来从未预想过的情景做好准备。

另外一点我比较欣赏的是,文章作者还说到了人类的脆弱性这个概念。我常常觉得这个词具有消极意义,但在这个情境下,我却感觉这个词非常贴切,甚至几乎对它有一丝留恋。我们的脆弱是将我们与机器区分开来的因素之一。机器尊重人类的心理与情感需求,这完全合乎情理,而且也是推动人工智能道德进步所面临的巨大挑战之一,即我们自己也需要尊重自己的心理与情感需求。如果我们自己都不尊重的话,机器又何必尊重呢?

正如我在本书开头所说的——幸福的未来取决于告知机器我们最为珍视的东西有哪些。

这是必不可少的,除非我们希望走进一个仍然不清楚我们最为珍视的东西是哪些的未来。就这方面而言,当某天机器也具有感知能力时,我无法看着自己的子孙后代,然后说:“让机器取代你的工作,掌控你的生活,为你成为人类伟大进化的一部分而感到欣慰吧。”至少无法直视他们的眼睛说,无法问心无愧地说。当听到有人说人工智能正在让人类进化时,最让我反感的是那种认为情感不是人类“现在”应该提倡的行为因素的论调。在这个过程中,如果不对我们的理念采取实际举措,就会形成我无法容忍的那种被动心态。虽然大多数人都不是人工智能专家或伦理学家,但因此我们就应该坐视不理,而在不断进化的过程中暗自祈祷吗?

绝对不可能。

相反,我倒是期望某天我可以跟我的子孙们这样说:

• 我对自己的生活有过考量,所以我可以生活得尽可能充实。

• 我清楚我最珍视哪些东西,所以我可以生活得真诚坦荡。

• 我尝试过帮助人们梳理自己的理念,所以我们能够让机器重视那些让人类如此看重的东西。

• 我克服了自己的恐惧与冷漠,努力让它成为一个和平而伟大的过渡。

• 我这样做是为了你。

我们不能忽略这些问题。网上或手机上的我们是物联网的一部分。我们存在,但又被追踪着。但如果你还没有确立自己的价值观,那么其他人也是做不到的。机器的构建不包含价值观或道德观,它们也没有自己的思想。它们在程序设计中没有这些东西。

而另一方面,你却可以根据自己的道德、伦理和价值观,对自己的生活进行衡量。你可以通过表达感激、为别人而活,以及体味生活,从而增强自己的幸福感。

虽然消费或许能给你带来一时的快乐,但积极心理学却表明,享乐主义的生活方式无法带来长期的幸福。同样,关注增长的全球经济价值观存在着局限性,它所倡导的消费行为对我们的地球、我们的身体或我们的生活来说,都不是可持续的。能够意识到这些就意味着我们尚有时间从今天开始更正人类的发展规划。无论机器时代即将到来与否,都为将来做好最充分的准备。

从今天开始。

同为人,我真的希望你能够做出尝试。

[1] 还记得《选择你自己的冒险路线》系列书里是怎么做的吗?首先你做出爬上树或者右转等选择,然后你掀开下一页,然后他们就会说“你死了!”,刚开始的几次我也被吓到了,但随后我便觉得作者之所以安排这么简短的结局,是因为他要接电话或者想看《细路仔》电视剧。

[2] 我乐意接受任何一家减肥药公司给予的资助或赞助,如果贵公司有特大啃口味的产品,那我就更欢迎了。