“如果你想让你女儿活下来,这是唯一的解决办法。”
我的妻子和两个孩子(儿子11岁,女儿9岁)在等候室里等着,诊察台的白纸上还留有我女儿梅拉妮刚才做检查时留下的皱巴巴的痕迹。医生给她抽血后用来擦拭的酒精棉的味道还弥漫在空气中,久久不散。
“这么说,这个电脑芯片是直接安在她的大脑里了?”我再一次问道。我还是不能理解我女儿要经历什么遭遇,才能对抗她的青少年帕金森病。一年前,她的双手开始整日地发抖。抽搐症状也日渐严重。而就在两个月前,她在学校开始昏厥、跌倒。虽然要经过一系列疼痛的检查,但诊断结果还是很快就出来了,确诊为帕金森病。
“没错。”施瓦玛医生答道。在过去的6年里,她一直是我们的家庭医生。35岁左右的她,话语犀利、富有同情心,对于诊断结果从来不拐弯抹角。她曾和在曼哈顿工作的擅长做这类手术的朋友取得联系。“这个芯片将有助于控制您女儿大脑中导致她抽搐的异常突触。”她说。
我指着她手中的iPad平板电脑说:“那个芯片和电脑中的芯片差不多,对吗?一旦放进去,就永远留在她的大脑里,我说的对吗?”
“我们希望是这样,因为人体排斥反应非常厉害。我们很有可能需要更换芯片,尽管这是在大脑中进行的,但手术相对比较简单。另外,随着技术的发展,可能还可以进行远程更新,这就更加降低了将来做手术的概率。”
扬声器里传来了办公室秘书呼叫施瓦玛医生的同事去前台的声音,我停顿了一会儿,说道:“如果有远程更新的话,这个芯片就成了一个固件,对吗?它不是,比方说,硅制的支架等诸如此类的东西,而是一种动态的技术。”
施瓦玛医生点点头,“没错。”
“也就是说,这会涉及到Wi-Fi、蓝牙或者iBeacon(信标)等技术。”
她再次点点头,“具体情况我还不确定,但基本的思路就是我们将需要在不进行手术的情况下远程检查芯片的运行状态。所以,我们会用到你刚才所说的那些短程技术。”
“这样说,她有可能会被黑客侵入?”我胸口越来越紧,眼睛也湿润了,“是吗?那Wi-Fi类的东西怎么工作?她的大脑要设个密码吗?她能旅行吗?她该怎么跟机场里运输安全管理局的人解释?”
施瓦玛医生伸了伸手,“约翰——这些问题都很重要,将来我们肯定还会遇到更多挑战。但好处总归远远多于坏处。”
“对不起,”我用手背擦了擦眼睛,说道,“只是一想到我女儿大脑里要装个芯片,实在太吓人了。她最终会不会把芯片更新成一部内置的智能手机?她会不会成为自己的Wi-Fi热点?这是不是意味着她成了半机械人?”
施瓦玛医生摇了摇头。“半机械人通常是指因威胁生命之外的原因,而选择将身体的某部分替换成机械的人。但从严格意义上讲,她将成为半机械人。”她拿起手机示意道,“当然,这跟我们大家也没什么区别。”
“但我们可以把手机关掉,”我回应道,“而她那个芯片却永远都在。”
她往前迈了一步,把手放在我的肩膀上,“是的,芯片会一直在你女儿的身体里,约翰。但不这样做的话,她就不在了。”
真正的挑战
几年前,我曾为一家专注技术和文化的大众在线新闻网站Mashable写过一篇关于人工智能(AI)的文章。文章的目的在于进一步展开对人工智能的探讨,而不再只是对这项技术持完全接受或全盘否定的极端态度。尽管我相信人工智能在我们的生活中无法避免,但这并不意味着我们应该盲目地接受该领域出现的任何新的发展成果。同样,一味害怕技术的发展对人类来说也没有什么好处。在我的文章中,我非常想根据自己的理解,找出有关人机合作或合并的可能的解决方案。
起初,我所做的研究让我非常沮丧。我发现,尽管人工智能领域发展迅速,却一直没有形成有关安全性的行业标准。我发现,对于在什么条件下、什么时候机器有可能具有感知力(智能、“活着的”)的问题,没有人能够说清楚。很多曾经说过这永远不可能发生的专家都为新近取得的成果而感到惊讶,渐渐改变了想法。总之,以我的经验来说,不管机器能否变得真正具有感知力,人工智能的广泛应用都是不可避免的。而且,虽然人工智能的开发者和使用者一直在说“我们要确保自己明白这项技术涉及的伦理问题”,但他们还是在不断地构建可能无法控制的系统。
我觉得这是一个问题。
但也是个机遇。
我对Mashable网站上的那篇文章进行了扩展,形成了这本书。经过多年的研究和采访,我逐渐意识到,对于人工智能的发展,根本没有什么简单的答案。没有谁能够精确地预测机器或机器人何时能“活过来”,也没有谁能准确地预测它们到底会是什么模样。
所以,就我而言,为了打消我个人的担忧,我开始想象人工智能不可或缺的个人生活场景。前面关于我女儿的虚构场景便由此而来。尽管人工智能的某些方面让我感到忧虑,但如果一项技术能够关系到我女儿(她是真实存在的)的生死的话,我会毫不犹豫地支持。
这样的虚构场景虽然看起来很奇怪,却给了我一次宣泄的机会。我不再为由机器主导的未来感到担忧,而是更加专注于人工智能问题的研究,从而印证人性的存在。所以,这本书每一章的开篇均为一个虚构的故事片段——我想帮助大家跳出关于人工智能的极端争论,并思考在我为大家展现的场景中,自己会做出何种反应。人工智能不再只是科幻小说的内容了,它就在我们身边。我使用这些故事的目的,是为了帮助大家更快地直面并打消自己的恐惧,就像我所经历的那样,从而看到无法避免的人工智能所具有的积极影响。每章的正文是对虚构片段中提到的技术及相关问题的描述。
有一点我要提醒大家,但不是说几十年后机器人杀手会统治世界。人工智能领域发展十分迅速,以至几年之内我们可能就会失去不受算法限制的自主反思的机会。我们中间有很多人已经到了这个地步:每当面对生活中的重大决策时,便会求助于设备和程序代码:我该去哪儿?我该和谁约会?我感觉如何?这些“数字助手”的帮助的确非常大。
但同时,在它们的训练下,我们也不自觉地把决策权委托给了它们的默认值。在这个过程中,我们自愿地把过去负责做决定的部分自我让渡给了技术。对于我而言,我可以忍受自己的孩子永远不知道如何使用纸质地图,但如果说他们不借助算法就不能找到生活伴侣的话,我是无法忍受的。对于能够通过心跳和脑电波监测来判断我此刻是否高兴的应用程序,我可以忍受。但如果说这些设备操纵监测结果并促使我做出自己不能完全理解的行为的话,我是无法忍受的。
自人类诞生以来,技术就一直在协助我们完成各种任务。但从人类整体作为一个种族的角度而言,我们还从未面对过机器极有可能变得比人类更聪明或具有意识的处境。我们需要充分认识这项尖端技术,不仅是为了进一步表达对人性的敬重,同时也是为了尽可能地揭示人工智能将如何促进人性的发展。
这正是为什么我们需要在充分了解的基础上,弄清楚想要训练机器做哪些工作。这不仅涉及到个人,更是关乎整个社会的选择。我们正处于人类历史上的转折点,当委托成为一种习惯,我们就有可能把那些更适于亲身去体验的生活内容外包出去。但问题是,如果连我们自己都不了解自己的话,机器又如何能够明白我们看重的是什么呢?
这就是真正的挑战所在,也是本书的根基所在——不论对个人而言,还是对整个人类而言都是如此。我们首先要梳理自己的价值观,然后才能更好地在将来让人工助手、机器同伴和算法为我们提供帮助。
这个概念本身也是你面临的真正的挑战,我编写此书的原因亦在于此。
如果你是像我一样的极客,如果你觉得我是在轻视技术,那么有一点我要说明:我不是反人工智能,而是支持人性。这二者并不矛盾。如果机器是人类发展的自然结果,此刻我们更应该全面清楚地认识自己,才能以我们坚信的道德观和价值观来发展机器。人工智能领域有一个概念,叫深度学习,描述的是通过机器观察学习法来构建神经网络的一种途径。我建议通过梳理人类的道德观、价值观及其特有属性,从而展开类似的关于人类自身的深度学习。
有一些好消息:有一门叫作积极心理学的科学,通过让人们观察能够为其生活带来改善的行为,比如感恩和利他,来提升人们的幸福感。我之所以选用“幸福感”这个词,是因为它指的是这些行为能够激发内在而持久的生活满意状态,而不是转瞬即逝、视心情而定的“愉悦感”。尽管那种“享乐主义的愉悦感”合乎常情又招人喜欢,但积极心理学已证明,不断地自行改善自己的心情不仅是奇怪的,还十分耗费精力。只有通过不断重复能够激发自省而不只是唯情绪是从的行为,才可以达到精神、肉体和心灵上真正健康而完整的幸福状态。这种深度学习的方法值得我们将之应用于自己的生活。
但是,也有一些令人遗憾的消息:我们无法实现幸福感的自动化。尽管我们可以使用某种应用程序,记录感激的瞬间,或测量冥想时的血压,但机器无法代替我们体验幸福。不管怎样,现在还不能。这并不意味着我们应该蔑视人工智能或机器的发展潜力,只不过是认识到了它们与人类构造的不同。积极心理学表明,自动化的幸福感在人类身上不适用。人类基本情感与精神的向外委托是无法程序化的。预测性算法能够帮助我们认识影响情绪的因素,但长期幸福感的提升需要我们去有意识且不间断地参与。
这里,我们应该看到这样一个残酷的事实:从许多方面来讲,把涉及幸福感之外的决策权委托给机器,或者对我们因何而幸福或因何而成为人的问题避而不答,相对来说更加简单。但本书不是为了应对未来黑暗的人工智能时代而提出“快速幸福”的程式化方案。相反,这本书关心的是通过这些试探性的尝试,我们意识到我们每一个人都值得拥有对自己更深入的了解。
关注价值观
尽管积极心理学对人们的生活有根本性的影响,但如果我们不愿意关注内心的话,它也无力改善我们的生活。原因如下:
虽然自动化可以剥夺我们的工作,但颇受青睐的算法更有可能抹杀我们的自省意愿。
虽然“终结者”机器人可能会开枪灭掉我们,但人工智能更有可能取代我们独立思考的能力。
虽然我们对机器如何复制我们的意识抱有困惑,但目前我们对技术可能带来的机遇的重视,远远超出了对人类当前利益的考虑。
正是以上的第三点激发了本书的创作。就自动化而言,我们对机器和人类的比较一般围绕着技能方面的问题展开。可讽刺的是,人类专门构建人工智能系统,其初衷本就是让机器具备我们的能力,从而代替人类完成任务。讨论机器能在何时具备哪种技能,至多只能给我们带来短暂的安慰。
无论如何,人类当前具有而机器所没有的,是一种与生俱来的价值观念。这些价值观念是我们在所处的环境中长时间慢慢形成的。除此之外,我们还具备对情感和道德的感知能力,这也是机器所不具备的。虽然认知计算领域取得了一定的进展,能够让机器人同伴看起来似乎具有情感,但是机器人的道德行为原本就是建立在开发它的人类的基础之上的。这就是为什么从本质上来说,我们未来的幸福取决于向机器传达我们最看重的东西。
这就是我要表达的意思。我相信,作为个人,作为整个社会,我们有必要确认、梳理并总结我们的价值观,这样才能将之翻译成机器可以识别的协议。如果你觉得其中的难度无异于登天,这也无妨,因为尝试创造有感知力的机器同样也很困难。然而让人觉得很讽刺的是,许多关于人工智能的研究方法都围绕着观察人类所表现出来的道德行为而展开。这些研究方法已经开始了对人类价值观的梳理总结,只不过通常没有我们的直接参与而已。这意味着致命的自动化武器(不经人类直接干预即可实施杀戮的机器)将可按照任何国籍的某个程序员的指令行动。或者换个例子来说,你的自动驾驶汽车可能会根据汽车制造商的决策来编定程序,在面对不遵守交通规则的行人时,它可能会直接撞上去,而不是冒险躲避。
对此,你怎么看?按理说,这类决策协议是不是应该根据你自己的价值观或道德观来编写呢?
是的,理应如此。不然的话,你自己的价值观就会被忽略,而所有的设备和产品将会按照创造它们的程序员的道德偏见来运行。这并不意味着程序员就是坏人——只不过他们不是你。如果在上述的自动驾驶汽车事故中,你情愿牺牲自己的生命来保全他人,那又该怎么办?难道你购买的汽车或产品不应该反映出你的这种意愿吗?来自加拿大金斯顿皇后大学的哲学教授贾森·米勒将此概念称为“作为道德代理人的技术”,这为创新而不只是管理带来了巨大的机遇。正如前面讲到的医疗知情同意书那样,在不远的将来,规范人类与人工智能的行为的道德框架,都能够在我们面临相关处境时提供法律声明。这个框架还可以根据你自己的价值观生成个性化数据,企业和个人便可以借此深度了解你的需求。
我将这种道德选择的成文化称为“设计价值观”。在本书后半部分,我为大家提供了一个框架,供大家依据已有的心理调查探索并梳理自己的价值观。这个过程非常简单:核心价值观共有12项(包括家庭、健康等),分别从1到10打分。这就生成了你的人生价值观快照,可以清楚地反映你最看重的有哪些。在之后的三周里,在每一天的最后,根据当天对每一项的实践程度再进行打分。举例来说,假如刚开始时你对家庭这一项的打分是10分。然而,三周之后,你意识到自己与家人共处的时间不多(这就是说,你每天给家庭打的分很低)。这个发现可以帮助你看到生活中有哪些失衡的地方,并根据实际生活的数据对自己的行为做出相应调整。
从设计初衷来看,这个过程很简单,还可以结合使用应用程序来监测心率或压力水平。但这个设计的重点在于你每天对自己如何生活所进行的反思。
令人惊讶的是,在我采访的人当中,很少有人能说出自己每日遵守的五大价值观。而采取某种有意义的方式对之进行检验的人,更加寥寥无几。当然,在多年的生活当中,宗教、信仰及其他专注价值观的方法在完善我们的道德决策方面发挥了很大的作用。但对于“设计价值观”,我的目标是为这个探索过程提供一个框架,这或许能为人工智能系统和人类测量数据提供补充。从这种意义上来说,所有参与者都会明白,我们已经花时间证实了自己最想反映出来的价值观。
补充一点:我并非骄傲自大地认为“设计价值观”是唯一能够通过为人类使用人工智能提供道德上的解决方案,进而拯救全世界的方法。我只是单纯地给大家推荐一个追溯自己的价值观的方法,同时也可以为机器进行道德决策提供信息。
这正是为什么我在本书中花大篇幅强调道德在人工智能领域的重要性,因为我相信这是有效推动人类和机器发展的关键所在。我相信,符合道德规范的编程已经渗透到了所有人工智能系统的制造阶段,从而确保其对社会整体的安全性、实用性和关联性。
这意味着,我们没有任何理由不去了解自己最看重的价值观,也没有理由不按照这些价值理想去生活。事实上,这是我们所有人应尽的义务。否则,机器就会按照YouTube网站或《新泽西娇妻》上的范例进行道德编程。
寻找并遵循我们视如圭臬的价值观是很具有挑战性的事情。但这个过程可以让我们看到自己生活中有哪些地方失衡了——这可能是金钱、时间或其他构成生活的意义的衡量指标。花时间衡量这些东西,能够赋予生活真正的意义。
这是我们的真实所在。
我们的数据协议
对于监视大脑活动的芯片,大多数人都不认为这可以把人变成机器人。但上文关于我女儿的虚构情景却构成了人与机器共享交流的活生生的例子。我们的电脑、手机以及周围的其他设备把我们与互联网连接到了一起——最终,把我们与不断涌入我们大脑与内心的数据连接在了一起。反过来,我们的思想与行为也在不断创造数据,进入环绕在我们周围的信息的海洋中,看不见,却无比真实。
谷歌眼镜让大众见识到了增强现实(AR)技术,它将我们周围的事物转化成数字信息,覆盖到我们看世界的镜片上。被脸谱网收购的Oculus Rift眼镜是虚拟现实(VR)的尖端产品。戴上这个眼镜的话,你的眼睛和耳朵都会被覆盖,从而使你完全沉浸在电子游戏或其他情景体验中。不论采用哪种界面,所有这类硬件设备都只不过是为我们习惯人机必然结合(或者更具体地来说,人机的物理结合)的事实提供了一种过渡而已。正如虚拟情景中的施瓦玛医生所说的,思想与行为的结合已然开始发生。
身体方面的问题相对比较简单。如今,各种可穿戴技术的出现让人们兴奋不已,开始用珠宝首饰或服饰取代手机的设计和用户界面形式,例如苹果手表。很快,利用增强现实技术的隐形眼镜就会完全取代手机,而其中有一些人会选择做准分子激光手术(LASIK),从而实现永久佩戴。我们已经习惯了技术增强版的运动员假体的概念,例如短跑运动员奥斯卡·皮斯托瑞斯就安装了备受争议的假体,人们因此送了他“刀锋战士”的称号。如今,何时实现人机合体,仅仅是个个人选择问题。
但事实上,对多数人来说,数字王国里的个人数据代表着一个人的生活这个概念仍然是比较陌生的。我们明白,在不同的数字领域,我们所呈现的面貌是不同的——在领英网站上我们表现得比较职业化,而在脸谱网上则更加随意。但这只是我们有意识地创造能看到的数据。而我们神秘而全面的数字身份则是由我们线上线下的行为所决定的,这些行为一直处于外界的追踪之下。而且,绝大多数从事这类数据追踪的机构都不愿意将其收集到的有关我们的生活信息与我们共享。
在这种情况下,他们会利用机器创造出各种算法,能够最大限度地分析并预测我们将来的行为。从某种意义上来说,能够获得我们的综合身份信息的机构,比我们更了解自己,这一点儿都不假。“爱德华·斯诺登事件”让我们看到了政府对我们日常生活的监视。虽然政府对我们监视追踪的问题确实不容忽视,但这不是本书考虑的重点。
为什么是“人工”智能
有人说,进步不可阻挡。但我们可以重新定义进步。
和多数人一样,我第一次接触到人工智能是在类似《终结者》的科幻电影中。机器人变得比我们更聪明,进而毁灭整个人类,这种想法很容易吸引人的眼球。但是,我发现像《少数派报告》这样的故事更加令人着迷,让人深感不安。电影中汤姆·克鲁斯扮演的角色是未来“预防犯罪”警察小组的领导,他们利用“先知”半机器人(可与机器同步,具有透视能力的人),找出意欲犯罪的人。与此相类似的是当前旨在预测我们购买意向的技术,它能够预测并控制我们最终的行为,推动互联网经济的发展。
这种追踪技术的邪恶一面跟商业活动本身并没有关系。个人数据的不透明才是最可怕的,这些数据是控制商业运转系统的核心。互联网和移动广告就是建立在监视的基础上的,通过追踪我们的行为,找出我们最可能的消费时间点。在这个模型中,我们被称为“消费者”,因为那就是我们要扮演的主要角色——购买商品,并给出将来的消费意向。尽管商家通过不断提供消费者真正需要的产品或服务,努力提升我们的生活,但购买进程绝不会因为我们的节制而作罢。通过追踪我们的行为,预测算法便可以对我们的行为进行分析,并生成刺激我们继续购买的信息。
这就是为什么说是“人工”智能——作为人类,我们为意义(purpose)而存在,不只是为了购买(purchase)。
如果仅从购买的角度来了解自己,所得出的人物形象必然是肤浅的。置身于以GDP(国内生产总值)作为主要价值衡量标准的社会,我们渐渐形成了“更高的生产力或利润才是人类幸福的关键”这种观点。如果真是这样的话,通过追踪并掌握购买行为来增强人们的幸福感,这种做法就非常有道理。如果购买某种产品或纯粹地花钱能让我们更幸福的话,我们应该会活得更轻松(如果我们有钱支撑这种假设的话)。但积极心理学已经证明,内在的幸福感或“心灵旺盛感”(flourishing)并没有因为金钱的富足而增强。虽然我们需要最基本的物质条件来获得安全感,但内在幸福感的增强有赖于通过心智觉知(正念)或奉献他人(利他)等行为表达自己的感激或做一些能为我们带来“心流”(flow)体验的事情。我们可以去健身房锻炼身体,同样,我们也可以不断重复能够增强幸福感的行为。这不是一个公式,而是一段旅程。
在这种背景下,人工智能所面临的挑战在于如何确定学习算法在哪些情况下能够改善人的生活,而不是为了增强人们的幸福感而省掉其自觉的努力。例如,我愿意在亚马逊网站上寻找某本书,从而就相当于放弃了在别处发现意外惊喜的可能,因为我知道我不会碰到一本恐怖小说。但是,脸谱网上推送的理应能增强我的幸福感的产品广告,则覆盖着一层令人惶恐的神秘感。我能看到这则广告,是因为我的哪些行为被追踪了吗?如果你对我的幸福感非常了解,为什么你不把这些信息给我呢?如果有人愿意分享这么珍贵而详细的信息,我一定非常乐意去买。但这种隐性的数据收集行为正是谷歌和脸谱网的广告业务所赖以生存的手段。但就我们的幸福而言,当这些公司不愿意透露关于我们生活中行为的信息时,我们如何精确地衡量哪种行为能增强我们的幸福感呢?
这是我们之所以称其为“人工”智能的另一原因——个人无法实时控制有关其身份的数据。互联网协议(IP)胜过了身份证明(ID)。
上述数据和身份的世界,或许很快就会把我们生活的大部分内容包括在内,这些内容都是通过我们所佩戴的设备泄露出去的。今天,我们还会把电脑关上,还会把手机放在一边,哪怕只是很短暂的一段时间,然后透过自己的双眼,体验真实的世界。一旦我们戴上时时刻刻可以泄露我们身份的隐形数据的眼镜或浏览器,我们便进入了恐怖的休克状态。在我所描述的施瓦玛医生的虚构情境中,我面临着是否将我的女儿与技术相结合的两难选择。现在看来,我们都已经被动地接受了个人数据的丢失,而这些数据则是算法、人工智能,以及当前的互联网经济的助推剂。当我们能够在由他人控制的虚拟世界看到自己的身份面貌时,再想收回自己已经放弃的权利,恐怕已经为时太晚了。我们到了应该停止依赖人工手段来增强自己真实的幸福感的时候了。
幸福经济学
直到三年前,我才意识到,经济学不仅和统计数据联系密切,更是一门哲学。对个人、群体或国家进行测量并赋值,需要首先就使用哪些度量指标达成一致,然后才能得出某种有关政策或福利的标准报告。
很难想象世界各国什么时候能够不再使用GDP作为衡量其国民幸福感的标准。根据GDP的逻辑,随着一国GDP的上升,该国人民的幸福感也相应增强。20世纪30年代,经济学家西蒙·库兹涅茨创造了GDP这个概念,并预测了其与幸福感的关系,但这种关系尚未得到证实。劳伦·戴维森曾于2014年11月在《每日电讯报》上刊文《为什么依赖GDP会毁灭全世界》,她指出,库兹涅茨曾警告说:“一国的福利状况……几乎无法从GDP这种衡量全国收入的指标中推断出来。”然而,我们对此并没怎么在意,GDP也被当作一系列标准而得到采用,成为全世界人民一致认为有必要衡量的最重要的指标。
不幸的是,这些价值因素主要关注的是和收入、增长相关的指标,而忽视了幸福与社会公平等其他问题。这些价值因素大举进入了商界,企业利润和股东收益的增长反映并充当了GDP的内容,塑造了有关职工生产力与价值的价值理念。最后,这些价值因素渗入了我们的个人生活。我们被告知消费产品、促进经济增长是公民的义务,我们也相信拥有金钱与成功就可以获得幸福,但这个模式并未奏效。一国GDP的增长或许意味着要开挖该地区的石油资源,破坏环境。然而这样带来的短期利益反倒会影响长期的可持续发展能力。对个人来说同样如此,毫无目的地争取更高的薪水,也并不等于获得更多幸福。
就有关自动化和机器学习方面而言,企业主也在和最终的GDP目标做艰苦斗争。如果机器的工作能力一直超过我们人类,那么,使用机器替代人工就会相对更便宜。请注意,我并没有说“更好”——但是机器工作起来毫无怨言,无需保险,也无需休息。这样,当今笃信以GDP的增长为关注核心的机构,事实上是暗自欢迎机器普及带来的职业自动化趋势的。对任何机构而言,这个决策都是一次关乎道德、关乎伦理、关乎财务的选择,体现出其价值观的部分内容。我们想要由人组成的劳动力,还是由机器组成的劳动力?当机器一直继续学习并更加出色地完成我们交给它的任务,我们便能够以一种可续持发展的方式和机器并肩工作,这种想法现实吗?
就互联网经济而言,只要以GDP为核心的股东利润增长模式不变,谷歌、脸谱网等公司就会继续依赖以暗中数据追踪为基础的广告模式来创造营收。在这种情况下,人工智能的使用便非常合情合理,因为现在人们产生的个人数据比以往任何时候都要多。物联网中包含的所有物体,如智能温控器(为谷歌所有),将能追踪到越来越多的私密生活数据,直到我们再也无力控制自己的数据,无法掌握这些数据所基于的思想、情感与行为。
这里需要说明几点:我不是一名专业的经济学家。但多年来,我一直在宣传除GDP之外的其他度量标准的采用,例如国民幸福总值(GNH)和真实发展指数(GPI)。虽然这不足以让我成为一名经济学家,但在技术领域,我拥有大量的分析个人量化数据如何影响政策制定的经历,这使我具备一个非常独特的视角。我还采访了在技术、经济和积极心理学领域的数百位专家,意在找出揭穿骗局的潜在解决方案,打破当前人们对技术统治论和唯GDP论的迷信。
从事技术写作的经历(我是Mashable网站和《卫报》的特约记者)还让我看到,我们要考虑采用能够跨越现实世界与虚拟世界的经济模型,采用能够真正增强人们幸福感的度量指标。虽然把经济动态纳入到MMORPG网游(大型多人在线角色扮演游戏)的考量中似乎看起来有些奇怪,但虚拟货币量和人们投入游戏的时长正呈指数级增长,对真实市场产生着巨大的影响,这就需要提出可行的解决方案。
当Oculus Rift这类设备变得无处不在的时候,当人们蒙上眼睛和耳朵,沉浸于虚拟世界的时候,或许就会有很多人选择永远地脱离这“有血有肉的世界”(meatspace,即“现实世界”,极客用语)。想象一下,如果GDP不主动包含这个虚拟王国的话,它将会因此受到多么大的冲击。如果一个人在游戏中找到一份工作,且薪水是以比特币的形式发放的话,那会是怎样的情况?如果他们人在俄亥俄州的都柏林,而游戏服务器却位于爱尔兰都柏林,那他们是该在美国纳税,还是在爱尔兰纳税——或是在两个地方都需要纳税?没错,既然Oculus Rift归脸谱网所有,那么我们便可以推测,扎克伯格会利用眼球追踪、面部表情以及压力、心率和脑电波感应技术,了解人们在某种游戏环境下的感受,从而为其客户提供实时的广告投放机会。那么,这种毫无悬念的盈利模式将会对经济学产生什么影响呢?更不用说它对我们的精神和心理的影响了。
有意选择的真实
本书的重心在于剥离我们在各种生活场景中已经接触到的人工智能,并以能够真正地提升幸福的新的发展模式取而代之。它的设计初衷是为了帮助你了解情况,并就能够帮助你过上自省生活的技术和价值观念,有意识地做出选择。
我把这本书分成两篇:“人工智能”和“真正的进步”。
“人工智能”篇讲述当前有关幸福的反乌托邦的发展轨迹。虽然人工智能具有其积极的方面,但如果在创造过程中不能很快地建立起透明性和道德标准的话,它将继续被反映GDP价值观念的技术统治理念所掌控。
“真正的进步”篇就我提出的几个有关人工智能的问题提出解决方案。这其中包括我举出的技术、伦理和经济方面的几个例子,尽可能地就所论及的问题给出实际解决方案。我希望通过赋予当今世界现存的发展模式和市场以透明性,从而能够享受奇妙的人工智能世界带给我们的好处,而不是被它吞没。
以下是本书各篇、各章节的具体内容介绍。为的是引起大家的兴趣,方便大家对本书所涉问题及解决办法有个具体的了解,而不会剧透。
上篇:人工智能
第1章 恐怖谷的短暂停留
机器人最让人害怕的一点,是它们看起来太像人了。还记得电影《极地特快》吗?尽管这部动画片在当时极为先进,但当其中一个卡通人物表现出颇像人类,但又不完全是人类的特点时,很多人都觉得有点儿不大舒服。在机器人学领域,这个概念被称为“恐怖谷理论”。尽管有些人因为这个词假设每个人在看到人形机器人或其他机器人时都会做出同样的反应而不怎么喜欢它,但对工程师们来说,这是广为接受的一个词。该词在如今的互联网追踪与广告领域也有所体现。我们都知道自己的个人数据正被人追踪着,我们只是不大确定是怎么被追踪的。为什么即使我们都没有孩子,我们还总是能看到那种纸尿裤的广告?为什么那个剃须刀广告“每天”都会出现在我的脸谱网推送中?尽管感知能力和奇点理论反映了人工智能的未来,但是决定其未来的算法基础现在就已经存在了,并且已经对我们的数字身份产生了深远影响。
第2章 当机器人接管世界
牛津大学于2014年开展的一项研究发现:“在未来的一二十年,从信贷员到出租车司机,再到房地产经纪人,美国如今现有的职位中几乎有一半将有可能实现自动化。”根据《每日电讯报》2014年11月刊登的一篇文章来看,英国方面的统计数据也非常类似:“在将来的20年里,英国可能会有1 000万个工作岗位被电脑或机器人接管,超过1/3的工作角色被消灭。”在不远的将来,机器自动化对人类的就业和幸福将带来实实在在的威胁。尽管技术创新和人工智能可能会给人类带来很大的好处,但如果我们无法工作的话,这也会改变我们寻求生活意义的方式。除了追求生活的意义之外,身在一个在由机器推动的世界里,我们还需具备支付账单的能力。
第3章 智能是“成功”的欺骗
从某种意义上讲,人工智能专门诱导我们把某种不是真实存在的东西当成是真实的,这一点儿都不假。这种数字魔术被称为“拟人论”,在这种论调下,我们可能会忘了Siri(苹果公司产品的智能语音控制系统)只是一种数字助手,而开始把它当成一个人,和它开玩笑。虽然为老年人设计的机器人助手以及给孩子的菲比玩具可以给有需要的人带来很大的安慰,但这些设备应该被看作对人类伙伴关系的“补充”,而不是“替代品”。
第4章 人机合一神话下的机遇
人工智能推动着以广告为基础的算法的发展,对我们的幸福感造成了根本性的威胁。当对我们的追踪仅仅或者大部分只是为了确定我们的购买意向时,那么我们作为人的本性就丧失了。我们开始疑惑,为什么我们在脸谱网上敲击出某个词,随之就会弹出某种膳食补充剂的广告——难道某种算法觉得我胖?在社会学研究中,伦理标准是一直被遵守的准则,也就是说,研究对象对所研究的行为内容有充分的了解。这种指导标准应该在由互联网和物联网组成的经济中得到贯彻,从而避免产生仅仅反映我们的消费主义自我的数字二重身,否则,这是肯定不可避免的。
第5章 机器人还没有道德观
机器人没有道德观。它们只是一种物体,被灌输了程序员为达到特定目的而编写的代码。道德观对人工智能行业之所以如此重要,其中的一个主要原因在于当前产品规范化应用标准的缺失,尤其在设计生产层面更是如此。在过去的十年里,军事化人工智能取得了迅速发展并获得了数十亿美元的资金支持,对它来说,道德这个问题尤其重要。而对普通民众来说,自动驾驶汽车问题可能更能呼吁人工智能道德的产生。例如,当一辆汽车正驶入隧道时,前方突然跑出来一个孩子,那么汽车是否应该急转弯以保全孩子的生命,而全然不顾司机的性命呢?这个概念由加州理工大学伦理与新兴科学组织负责人帕特里克·林提出。你更愿意让谁来回答这个问题呢?是像帕特里克这样的伦理学专家,还是缺乏睡眠、竭力完成投资方指定任务的程序员?如今,我们正处于面临诸如此类的法律及其他问题的特殊时期,因为目前所有的成文法律都是针对人类的。机器人正改变着这些规则,相关政策也应该及时跟上,将影响力日益增强的机器人也考虑在内。
第6章 奇点已然可见
你根本不用坐视不理,就可以看到没有你的贡献,人类未来的发展也会照样进行。如果科学决定论未经允许便劝诱他人改变信仰,或者把文化观念带往危险的方向,那么它跟其他主要宗教也就没有多大的区别了。虽然我们无法阻止进步,但我们仍需要对以利润或增长为目的的创新提出质疑。我们渴望拥有一个能够充分认识到人类之所以伟大、之所以值得称颂的原因的未来,尽管人类并非那么完美,但这也不是反机械自动化的勒德主义。
下篇:真正的进步
第7章 让算法更加准确地了解我们
隐私并未死去,它只不过没有得到妥当的管理。尽管一个人对其身份的决策无关他人,但这并不意味着不能创造个人数据交换的架构,允许在个人愿意的情况下进行交易。不管是叫个人云数据、供应商关系管理(VRM),还是生活管理,当前已有几种方法可供选择,可以让人们以自己认为合适的方式保护或控制其数据。这可以让现已存在或即将出现的算法或人工智能项目更加准确地了解我们的个人数据。
第8章 人工智能的价值观
为达到真实,你必须能够清楚地说明自己的信仰,并能向自己证明在生活中遵守了自己的价值观。在将来,通过增强现实或虚拟现实,别人可以轻易地看到我们的数字行为。到那时,能够为自己的行为做出解释就会变得比以往更加重要。本章提出了一个可确定并追踪价值观的步骤指南,它建立在社会学和积极心理学领域众多知名专家的研究基础之上。该方法根据你最看重的东西,实现对你的生活的衡量。然后,你就可以看到哪些方面是你可能需要更多或更少关注的,从而实现生活的平衡。通过确定自己的价值观,并根据自己的信仰采取行动,你还能够发现帮助他人的机会,也能够提升你的自我幸福感。
第9章 人工智能的道德宣言
人工智能领域的道德问题比以往任何时候都更重要。该领域最近出现的宣言,尤其是未来生命研究所发布的“稳健有益的人工智能的优先研究项”,就提供了先例,让专家们更有动力把道德指导准则纳入人工智能及自动化机器研究的核心之中。但无论是学术界各领域间的隔阂,还是利润至上的企业的偏见,都不能阻挡人类价值观与机器核心相融合的进程。这是我们教会机器继任者是非对错的唯一机会。所以,我们需要理解并立马开始着手推进这一过程。
第10章 GAP——智能的未来
当你在英国乘坐地铁时,耳边会传来“Mind the Gap”(注意空隙)的友善提醒,以免掉进站台和列车之间的空隙。积极心理学表明,心怀感激、奉献他人与追寻意义能够增强我们内在的幸福感。和快乐相比,这种形式的“心灵旺盛感”所关注的不是心情,而是我们根据自身特性所采取的行动,正是这些特性定义了我们是谁。本章包括如何进行个人“GAP分析”的背景信息与练习,同时也探讨了为何在自动化不断取代人类工作的世界中,追寻意义对我们会变得至关重要。不管是否会有基本收入保障或其他经济形式的政府干预措施来帮助我们支付账单,对GAP的关注都可以让你有能力面对未来,因为你知道你可以每天帮助他人,并从中获得快乐。
第11章 经济学的进化
或许你曾听说过国民幸福总值,但你或许没有意识到这个词所关注的不是心情。相反,它是GDP经济指标之外测量国民幸福感的指标。在马里兰和佛蒙特等州,真实发展指数等这类新型度量指标已经得到采用,而且在确定国民幸福水平的过程中,还会把复式记账的重要宗旨考虑在内。从经济层面来讲,这意味着当石油泄漏对一国的GDP产生增长(清理过程可以创造就业)时,它会考虑对环境的影响等因素。当传感器、可穿戴设备和物联网更加密切地测量我们的情感和心理健康时,政府度量标准便不能仅仅依靠金钱的增加或经济的增长来推测我们的幸福感。在本章中,我还对“设计价值观”的概念进行了拓展,对前文提到的实用练习进行了扩展,关注如何将其融入由人工智能推动发展的数字及经济的未来。
第12章 当智能不再“人工”
还记得《选择自己的冒险路线》系列图书吗?在那套书中,你可以自己决定故事如何发展。同样,在第12章一开始,我就会给你对人工智能进行自主选择的机会。本章重申了我的观点:今天,我们需要将道德观念融入人工智能的设计之中,需要将价值观融入我们的生活之中。
从人工到真实
厌倦了人工智能带来的恐惧?
想知道你最珍视的是什么?
想了解积极心理学如何能提升幸福感?
在这里,我诚恳地邀请你自己解答这些问题。