首页 » 智能革命:迎接人工智能时代的社会、经济与文化变革 » 智能革命:迎接人工智能时代的社会、经济与文化变革全文在线阅读

《智能革命:迎接人工智能时代的社会、经济与文化变革》11 美丽新世界 严肃新问题

关灯直达底部

1932年,进化论旗帜人物托马斯·亨利·赫胥黎

《娱乐至死》的作者尼尔·波兹曼说:“在《1984》中,人们被对痛苦的恐惧所控制;在《美丽新世界》中,人们则被对快乐的盲目追逐所控制。”而未来的人工智能社会将是哪一种?是会超越所有人的想象,形成全新的世界,非痛苦或者快乐所能描述,还是继续延续人类永恒求索奋斗的主题?

智能革命,是堪比工业革命的第四次技术革命。与工业革命时代中国被动落后不同,今天,中国是以领先态势,主动驾驭着这场革命。正如无人车之路在挑战中开拓,智能时代也在混沌中清晰起来。我们有理由相信中国会在这场变革中占据制高点。

如果我们把视线抬得更高,面对技术与人类的关系,又不能不有一些忧虑。细心的读者应该能感受到,在本书各章节的热情之中都隐藏着一种关怀。我们提倡起跑线上的人工智能教育,因为担心起点上的不平等;我们描述未来的新人类,因为希望每个人都掌握智能时代的生存技能;我们仔细构想首席人工智能官能做什么,因为希望众多企业能在大变革时代协同进步,保持经济生态平衡;我们知道人工智能与物联网将助力中国制造强势升级,但也不能不担忧新的产业危机。

纵观历史,技术进步起先总是被少数人拥有,甚至成为制造不公正的武器,其普及过程充满曲折与不确定性。这其中固然有拥有者的自私因素,但也有后进者的迟钝以及人类天生的族群竞争使然。人工智能也会如此吗?

中国移动互联网的发展是个有趣的回答。农村用户使用移动互联网的频率远超PC互联网,因为前者容易得到,只要拥有一部智能手机即可。中国强大的制造业与互联网基础设施一起普及了移动互联网。在这个领域,人们更平等一些。人工智能与大数据作为一种流动的资源,与移动互联网一样,也天生具有穿透性和普适性,只要通过一部联网手机就能触及。

每个人都将遭遇人工智能,区别在于个人的准备程度。人工智能作为新的工具,究竟会创造一个怎样的新世界?一切有待努力。中国人曾经于无声处兴起了一场浩荡的“勤劳革命”,惠及亿万国民甚至是世界。面对智能革命,勤劳的人类能否再一次做好积极准备?

数字鸿沟

吴军的一个说法在网上流传:智能时代只属于2%的人,其他98%的人都会成为落伍者。看到这个数字,人们很容易想起2010年开始的占领华尔街运动,运动者打出的口号是反对1%。未来有可能是掌握金融资本的人占据了1%,掌握人工智能资源的人占据另一个1%。本书无意论述那场占领运动,这里只想说一件那场运动之后不久出现的惊人一幕。

2012年10月末,飓风“桑迪”席卷美国东海岸,海水倒灌,600多万人无电可用。繁华的纽约市一片汪洋,下曼哈顿区25万用户遭遇断电。但是却有一幢大楼灯火通明,孑然独立,那就是位于纽约市曼哈顿西街200号的高盛大楼。

图11-1 纽约市断电夜景图

资料来源:http://thefeministwire.com/2012/12/black-survival-in-the-uchromatic- dark

这幕景象引发了不少民众的愤怒。彼时占领华尔街运动刚刚被强行结束一年,美国仍然深陷次贷危机引发的经济不景气中,就业低迷,人们对华尔街充满怨气。而高盛则是华尔街金融资本的首席代表,在全世界兴风作浪。黑云压城城欲摧,兀自闪亮的高盛大楼与周围一片漆黑形成鲜明对比。这一幕看上去是个多么好的象征:百分之一就在那里,哪怕周围洪水滔天。

但高盛发言人立即解释,“我们不是唯一有电的大楼,但我们的确有发电机,现在完全是自己给自己供电”。他想说的是,高盛大楼是凭借自己的实力在闪亮。

这大约也是现代社会的隐喻:一部分人因为各种原因站在金字塔顶尖,有人依靠权势、有人依靠资本,也有人依靠才能或技术。高盛本身就是非常善于利用数据和机器智能的金融公司,代表着华尔街与美国东西海岸高科技产业力量的结合体。相比美国已经陈旧的基础设施,高盛却独善其身,掌握着大量资源。

奥巴马总统在任时,美国高新产业高速发展。然而到了总统换届时,代表高科技势力的民主党却遭遇了滑铁卢,尽失总统宝座与两院控制。有资深评论家指出,在这场大选中,围绕特朗普涌现出了所谓的“白人抗议”现象。对民主党发出抗议的白人都是那些高校和高新产业之外的白人工作者。早有专家指出,美国金融资本不受限制地扩张,导致虚拟经济与实体经济比例严重失衡,制造业被挤压出局,金融资本与信息高科技技术结合,愈发加剧了这个失衡,终于带来恶果。

诺贝尔经济学奖获得者保罗·克鲁格曼痛心疾首地说过一件事情:

2010年,当哈得逊河道底下亟须一条新的铁路隧道时,新泽西州州长却突然取消了这个当时美国最大的基础设施项目。但与此同时,另一个耗资巨大的隧道项目却接近尾声:Spread Networks隧道贯通宾夕法尼亚州的阿勒格尼山脉。不过建设Spread Networks隧道的初衷不是为了载客,甚至也不是为了运货,而是为了搭起一条光纤,可以把芝加哥期货市场和纽约证券交易所之间的通信时间缩减3毫秒。铁路隧道项目被取消了,Spread Networks隧道却修建了起来。谁在乎这3毫秒呢?答案是股市里的高频交易员,他们靠比同行快几毫秒的速度买入或卖出股票来赚取差价。这个现象可以告诉你,如今的美国究竟出了什么问题。社会正在把过多的资源分配给金融投机交易,导致产业严重失衡。

高频交易或者闪频交易,正是一种以信息技术为基础的金融投机方法,需要硬件、算法、人才全方位的支持才能做到。在算法方面,它不仅要求把资深金融交易专家的策略转化为算法,还要求这个算法尽量高效,能够比别人的算法更快地得出结果,而且算法能够自适应环境,根据外界条件变化调整参数和概率,这已经是一种比较发达的机器智能了。茕茕孑立的高盛就是这方面的高手,为此招募了顶尖的计算机团队。类似高频交易的技术,不仅帮助金融大鳄远远甩开一般散户,也屡次因为机器出错,导致股市闪崩,极大地加重了市场的不确定性。

美国的教训值得全世界深思。数字技术在美国发展久远,人工智能技术是这一技术的最新延伸。数字与智能技术本身不是导致失衡的罪魁祸首,与不公正的社会制度和不科学的经济政策结合却会加速失衡。而普通民众则是失衡后果的主要承担者。

美国2016年大选结果体现的东西部州与中部州及东北铁锈带的鲜明对立,描绘的不只是政治对立,某种程度上,描绘的正是数字鸿沟。

当然,鸿沟不全是由数字技术造成的,只是被数字技术深化了。2014年法国经济学家、巴黎经济学院教授托马斯·皮凯蒂出版了《二十一世纪资本论》一书,风靡一时,受到克鲁格曼等经济学家的大力推荐。该书以令人信服的数据证明,几十年来,世界上的收入不平等在扩大,资本回报大大超过了普通人的劳动回报。马克思早已描述过的不平等生产关系一直延续下来,似乎没有什么改善的迹象。联合国的《2016年中国人类发展报告》显示,数十年来全世界主要扶贫成绩都发生在中国,其他国家乏善可陈。

马克思认为资本主义工业化是以维持高利润为目的,而不是直接以提升人类福祉为目的,于是制造了大量的剩余人口或者说是失业大军。他们随时等待被雇用,以替换失去剥削价值的工人。但在智能时代,剩余人口的含义也许会发生变化。

人类还能做些什么

很多人尚未意识到所有单一技能的职业都可能被机器代替。语音识别代替速记员的事情最近几年就会发生;现场同声传译只是因为受限于麦克风阵列硬件发展,还需要时日;电子警察比保安更有效,很多小区里摄像头车牌识别已经代替了以往的刷卡进出;电商、快递业的人工客服已经被机器取代。倒是出租车司机可能会晚一点被淘汰,无人车并不容易在10年内取代人工。

亚马逊的“无收银员超市”让血拼族一片欢呼。在这里,顾客只要安装了特定App,就无须排队,无须柜台刷卡,拿好商品就可以走人。传感器会自动识别顾客带走的商品,计算价格,并在顾客离开超市时自动从用户银行卡上扣款。有人戏称那种购物体验就像自由抢劫一样,让消费者大呼过瘾。

图11-2 亚马逊智能超市

门上写着:Just walk out(走出去就行)资料来源:https://www.amazon.com/b?ie=UTF8&node=16008589011

这当然是消费体验升级。但悖论在于,智能超市在造福购物者的同时,也让收银员失去了工作,进而减少了购物能力。仿佛量子态坍塌现象——量子以波的形式存在时才能被发现,但是当观察者观察时,量子必定存在于一个确定的位置,于是原来的量子波坍缩为一点,此时量子表现出粒子性,人也就无法继续观察——技术与幸福的关系也是如此,当你看见了幸福的同时,背后就有些事物在发生坍塌。

除了收银员,欢欢喜喜购物的律师、新闻编辑等白领可能也幸运不到哪里去。他们的岗位也可能会被代替,至少基本的法律分析和通稿写作在一些公司已经由机器执行了。

就在2016年底,俄罗斯最大的银行Sberbank(俄罗斯联邦储蓄银行)宣布推出机器人律师,用于处理各种投诉信件。这将导致大约3000名在银行工作的法律专业人士被炒鱿鱼。Sberbank执行委员会副董事长Vadim Kulik(瓦迪姆·库利克)说,未来所有的常规法律文件处理都将自动化,只需要律师处理那些紧急的法律程序。

在未来,可能只有那些需要直觉、需要创造性的非标准化工作,如艺术设计、规划组织工作才不可替代。

失去购物能力倒也不是很要紧,因为购物本身可能也不需要了。马克思认为剥削导致工人阶级的贫困,进而引起消费低下、需求不足,最终导致生产过剩并崩盘。而智能时代,高效的机器生产可以满足更多人口的基本需求。工厂主可能连“剥削”人的意愿都没有了,因为机器人可以比普通工人工作得更好。失去购买力的人口也可以从机器生产的丰盛中分得基本福利。

新的人类工作机会确实会被创造出来,比如无人车交通管理岗位,又如亚马逊已经拥有5万名为数据打标签的工作者。

那时,衣食无忧的普通人类可以实现马克思“上午狩猎,下午钓鱼,晚上研究哲学”的自由生活了吗?也许可以,但可能会缺少自由的心情,因为你不能创造价值,不被需要。人的一大基本需求就是渴望得到他人的认可。没有价值的人会进入怎样的消沉状态?或许他们会重新组成一个圈子,如同地下城一般,有一套不同于智能世界的生活方式。

地下城的想象有些遥远。短期内,剩余人口的增加将是一个现实问题,可能引发社会不安定。我们可以想象,未来会有新的劳动保护法条款出台,比如规定每个企业雇用的机器人与人工比例不能少于一定标准等。但当务之急可能是升级社会职业培训,为普通工作者提供计算机、互联网和人工智能方面的职业教育。

美国政府也已经意识到挑战,2016年12月白宫发布《人工智能、自动化和经济》,为应对就业市场的变化提出了战略性建议,比如:

要为教育培训投入巨资,教育和培训美国人,为未来的工作做好准备。

为工人提供更好的指导,以引导他们进行工作上的转换,同时赋予工人权利,确保广泛共享由人工智能带来的经济增长收益。

建议很美好,但考虑到美国政府即便在医改计划执行上也举步维艰,能否有效应对智能革命,还有待观望。康奈尔大学计算机科学系教授、图灵奖得主John Hopcroft(约翰·霍普克罗夫特)在2017年初预测,随着人工智能与自动化技术的兴起,未来美国劳动力规模可能需要缩减50%。

中国能为改善不平等做些什么?数字时代,能否在技术手段的帮助下缩小鸿沟?我们在此仅抛砖引玉,希望能引起更多有识之士的思考和探索。人工智能教育大脑应该被投入职业培训中,让机器辅助普通工作者学会与人工智能打交道,学会在人工智能时代寻找工作价值。

政府当然应该出台相应的保障措施,但关键还在于对生产方式本身的改善。美国制造业空心化,高新产业未能反哺制造业,而是与华尔街资本结合,在全球寻找利润,加深了美国内部的数字鸿沟。中国制造业发达,如果加以指引、支持,求得总体主动的脱胎换骨,就有可能创造出新的平衡生态。

已故著名匈牙利裔英国政治经济学家卡尔·波兰尼在《大转型》一书中指出:资本主义和工业化把一切数字化、理性化,并挤压“人性”,尤其是将市场凌驾于社会之上,而非让市场嵌入社会,所到之处,把一切社会性关系驱赶出去。比如英国“羊吃人”的圈地运动,实质是为了生产羊毛商品而驱逐农民,从而毁灭乡村社会秩序。这一切引发了人道灾难,也导致了一个反向的社会保护运动,包括对福利的争取、对劳动保护法的追求等。经过几百年的动荡和调整,西方资本主义国家才达到了生产与福利的基本平衡。

温故知新,历史经验教训值得我们吸取借鉴。今天,我们观察到这样的平衡再次遭到危机,越来越多的人把眼光投向中国,从马丁·雅克这样的战略学者,到凯文·艾什顿这样的技术专家,都对中国的发展报有极大希望。中国高效的政府和民间追求发展与公平的强大传统都为此提供了新的可能。

著名经济学家林毅夫坚持认为“有为政府”是社会发展的保障。面对智能革命,“有为政府”需要把握好轻重缓急,重点领域的竞争与升级不能放缓,但是事关国计民生的领域需要做好平衡,把转型期的社会波动降到最低。20世纪90年代国企改革期间,中国政府结合社会力量,兴办了比较成熟的再就业培训体系。今天需要升级这个体系,引导普通劳动者熟悉智能技术并能学以致用。发挥社区街道作用,为居民提供智能生活讲座。甚至在基础义务教育阶段就为学生提供学习智能技术的机会。

大公司在技术发展中也要有社会担当。技术人员需要多思考社会责任,努力把人工智能技术嵌入社会发展,而不是把人工智能本身的发展凌驾于社会之上。这方面已经有了很好的尝试,比如用语音、视觉等方面的智能技术帮助落后地区群众阅读、帮助残障人士生活、为劳动力培训设计产品等。在这些方面,技术人才还需要多想一想,比如面向大学生和技术人员的在线教育平台能否尝试为普通劳动力提供培训?这一切都需要政府与企业的通力合作。

工具理性之问

在技术进步面前,人们没有选择,只有奋力前行。因为技术不是外来者,正来自人类生产创造本身,和人类的存在不可分割。

先哲曾经仔细讨论技术或者工具与人类的关系。马克思首先承认资本主义和工业化短时期创造出了超过人类过去几千年创造的财富总额,总体上改善了人类生活。但接着他谈到了“异化”,意思是人类创造的东西反过来奴役人类,当然,不是所有的人类。另一位大思想家马克斯·韦伯则认为,资本主义的货币化及其处理一切事物和关系时候的“算计”化,创造了所谓的工具理性。工具理性化原本许诺给人类“轻盈的斗篷”,结果却成了“铁衣的囚笼”。

工具将人类从“自然的暴政”下解放,但工具本身、工具与社会关系的结合,又造成新的不平等。谁垄断了工具,谁就垄断了经济政治的命脉。曾经匮乏但是平等的原始社会,因为工具,分裂为垄断“智能”的统治阶层和不拥有知识的被统治阶层。

蒸汽机加速了工业革命的车轮。早在埃及的托勒密王朝时期,寺庙就已经运用蒸汽动力,但仅仅用来升起神像,制造神迹。这正是上述垄断智能的缩影。只有在资本和智能社会化以后,蒸汽机才能充分发挥潜力,给文明注入强劲的动力。

工业时代在更高的层次重构了智能和劳动的分裂。大规模制造的一大弊端,就是思想和行为的分离。创新任务由脱离生产的科学家和工程师完成,生产工作则由非熟练工人完成。

云社会和物联网提供了把实践劳动与脑力劳动结合起来的可能。

在传统工业体系中,工人是“标准化”的工具,尤其是流水线上的工人,只能被动按照指令完成规定动作。“工作”异化了,不再是一种创造性的行动,而是消极的机械化行动。如果我们大胆设想,未来人工智能或许可以提供技术性解决办法。比如考虑到劳动力的多样性,超越流水线,创造一种智能化的生产流程,根据劳动力状况,自动适应、自动调整,不会因为某个环节的工人不标准就影响全局,同时给工人个体发挥的机会。企业的智能运营系统通过网络来连接一线工作者与科研人员和管理者。随时记录、定位和分析工作者的操作习惯、状态,给出优化建议,使工作和学习同步完成。

中国产业链完整、工作场景多样、人才层次丰富,这是宝贵的财富。科学家和工程师应该有意识地深入生产场景,把智能技术与工业实践和生活实践结合起来。

机器人的无用之用

人工智能还给我们带来另一种突破工具理性的启迪。

回想一下文艺作品里那些陪伴我们童年的机器人,从铁臂阿童木到“大白”,它们无不超越了人类最初给它们设定的工具属性,奋力追求自己的独立“人性”。

在《钢铁巨人》里,机器人为了拯救人类村庄,选择与原子弹同归于尽。它在最后一刻说的话是:“我知道自己要做什么了,我要做Super man(超人)!”机器人本身能否形成人性甚至超越人性,是个有趣且有意义的话题。

多梅尼科·帕里西所著的《机器人的未来:机器人科学的人类隐喻》不只是研究机器人,更把机器人当作一种方法,来反思人类科学的工具性,指出人类自身的方向。

科学的一大基本特征是“对象化”——人与自己的研究对象分离,完全“客观”地观察、记录、分析对象,尽量不带入观察者自身的因素,诸如情绪、立场等。这套方法是人类认识自然世界的有力工具,但是在用于认识人类自己的时候却遇到了困难。

首先,人作为自己的研究对象,无法把研究者和研究对象完全分开,人之精神就是由自己的情绪、动机、愿望、认知等组成的。

其次,关于人类行为和人类社会的研究理论基本是用文字而非自然科学中的数理符号来表达的。文字作为表达科学理论的工具有很大局限性:意义不准确、下意识地含有研究者的价值观和情感取向、难以数字化等。文字不是透明的中间工具,文字本身就构造了一层“现实”。文字甚至是数字,其本质都是符号,符号与现实总有差距,正如关于颜色的有限词汇是无法完全表达现实中无限多种类颜色细节的。文字甚至会出现没有现实对应物的情况,比如“信仰”“目标”等这类词汇。

大数据和数学方法的发展使我们已经可以把很多人类学现象数字化,但依然不足以研究人类。帕里西说:“(这些方法)甚至未曾试着去识别隐藏于这些行为现象和社会现象之后的机制与过程,更不要说去解释了。”

人工智能为表达关于人类的科学理论提供了新的可能,帕里西提出了“作为人工构造的理论”(theories as artefacts)——创造人工构造(类人机器人)来代替研究。这个理论基于这样一条原则:“无论X是什么,要理解X,就必须以人工对其进行再现。”如果你的理论不好,人工构造就无法造出来。如果你能造出类人机器人,就说明你的研究成功了。从根本上说,这是把研究和实践统一了,研究就是实践,实践就是研究。这个过程除了可以克服前面所说的人文学科问题,还能把多种学科诸如社会学、心理学、生物学、政治学、语言学、经济学、文史哲等整合在一起,打破目前各类学科机械分割的局面。

帕里西认为,目前的机器人或者人工智能与人的区别在于,人的思维中包含了动机与认知两种模式。人的任何行为都有动机,比如为了吃喝与生存、为了安全与繁殖、为了荣誉与理想等。而现有的机器人只有认知,无所谓动机,因为它的目的是由人设定的。机器人只是工具,为了满足人的特定需要而存在。

但是机器人可以是人的影子,为此他区分了两类机器人:实用机器人和类人机器人。后者正是科学家需要的。前者只有认知思维,后者却设定了动机,比如设定机器人需要定期获取能量以求得生存。具体做法是在计算机中构造一个机器人程序,可以为它装配饥饿传感器,令它在一定的虚拟空间里寻找食物和水。食物用食物令牌代替,水用水令牌代替,两种令牌分布在不同区域,然后让机器人自主决定获取这些令牌的路线和顺序,找不到就会死亡。以此观察机器人如何做出决定。

同理,可以设定机器人需要规避一些危险令牌以保障安全,需要通过与其他机器人交换编码而产生新的后代(繁殖),甚至设立财产观念、遵守规则的动机等。观察在这些动机的驱动下,机器人如何进化出类人的社会意识、语言、文化、情感乃至艺术和宗教。比如,制造男性机器人和女性机器人,并赋予机器人保护后代机器人的动机,观察它们如何发展出家庭观念和实体。

科学家这样制造的机器人可能没有任何实际应用价值,比如会犯错的机器人,会生病的机器人,会做梦的机器人,会难过、会高兴的机器人……而工具是不应该犯错误、开小差的,这些是人类的特性。在这种思想方法下,制造人工智能的过程不再只是制造服务于人类外在需求的工具,而正是人类了解自己的过程。

这样的研究已经有了一定成果,开拓了过去的心理学、社会学从来没有过的视野。

不过读者可能会看出一点点“危险”,类人机器人会不会最终演化出自我意识?它如何处理与人类的关系?这种研究会被宗教人士看作是一种僭越吗?因为科学家在做上帝做的事情——造人。不过科学研究与宗教不同,本质是对人类自身的对象化研究。生命就是不断地“生成创造”。工具理性问题在这里遇到了新的场景:在机器人内部实现对工具理性的超越。归根结底,这是借助人工智能展开自我反思,同时又指导人类发展人工智能,对我们思考机器人如何融入人类社会,如何参与人类的文化、社会生活都会有丰富启发。

基督教新教把人类看作上帝实现自我意志的工具,而人类的自我反思总是在克服这种工具性。人不应该只是工具手段,人应该是目的和手段的统一,这一点可以在人工智能身上付诸实践。

二十三条军规

为“类人机器人”设定伦理和规则看来也是必要的。

在2017年1月5~8日举行的“Benificial AI 2017”会议上,1980名来自产业、学术和研究界的人工智能相关人士共同制定了“二十三条原则”,宗旨在于确保人工智能的健康发展,人人都能从人工智能中受益。这二十三条原则分为研究问题、伦理价值观和长期问题三个部分。[2]

研究问题方面,提出人工智能研究的目标是创造有益的智能,而不是让它像经历生物演化一样没有确定的发展方向。投资人工智能应该附带确保该研究是用于发展有益的人工智能,包括计算机科学、经济学、法律、伦理和社会研究中的棘手问题,例如:我们如何使未来的人工智能系统具有高度鲁棒性[3]?这样才能够让它们在没有故障或被黑客入侵的情况下做我们想要它们做的事情。我们如何通过自动化实现繁荣,同时不打破资源和目的的平衡?我们如何更新法律制度实现更大的公平和更高的效率,跟上人工智能的发展步伐,管控与人工智能相关的风险?人工智能应该具有怎样的价值观,应该具有何等法律和伦理地位?

其他研究问题包括人工智能研究人员和政策制定者之间应该进行有建设意义、健康的交流;培养合作、信任和透明的开发文化;避免竞赛,避免在安全标准方面进行削减。

伦理价值观方面,二十三条原则提出了很多愿景,包括人工智能系统的安全,故障透明度(如果人工智能系统造成伤害,应该可以确定原因);由机器人做出的任何涉及司法决策的行动都要透明可解释,供主管人权机构审核;设计者与使用者要担起道德影响责任;要确保高度自治的人工智能系统的目标和行为与人类的价值观相一致,尊重人类的尊严、权利、自由和文化多样性;保障个人隐私,不仅人工智能系统能够分析和利用人类产生的数据,人类也应该有权获取、管理和控制自身产生的数据;不得不合理地限制人类真实或感知到的自由。人工智能带来的利益应当是普惠人类的;由人类选择如何以及是否委托人工智能系统去完成人类选择的目标;人工智能的力量应当尊重和改善社会健康发展所需的社会和公民进程,而不是颠覆这种进程;避免人工智能军备竞赛。

长期问题方面,建议在没有达成共识的情况下,避免对未来人工智能能力上限做出较为肯定的假设;通过相应的关怀和资源对其进行规划和管理,应对风险;对于那些不断自我完善或通过自我复制快速提高质量或数量的人工智能系统,必须采取严格的安全和控制措施。

最后一条是“共同利益”:超级智慧只应该为广泛共享的伦理理想服务,为了全人类而不是一个国家或组织的利益而发展。

二十三条原则,这个名字不由让人想起黑色幽默文学代表作《第二十二条军规》,那是一条不可能完成的规则。看起来,这二十三条原则更像是二十三条呼吁,提出的是问题而不是解决方案,代表的是愿望而不是已经实现的现实。其中涉及很多价值观问题,科学家倡导发展机器人要遵循人类的价值观,这是理所当然的。不过这里就会有三个问题:

第一,这里制定的价值观基础在于把机器看作工具,要求人类在使用工具时不得损害人类利益。实际上,在任何工具的使用上,人类都没有完全做到这一点,比如军备。不过确实可以尽力加以限制,比如军备条约。

第二,人们之所以前所未有地郑重其事,是因为意识到机器人不同于以往的工具。普通工具没有生命、没有意识,完全听命于人的操作。但机器人如果具有了类人意识,那么人类怎么对待它们?显然二十三条原则并未考虑这个问题。人类拒绝奴役人类,把人当作工具就是一种奴役,那么对机器人呢?如果人类的价值观就是让机器人做工具,类人机器人会认为这种价值观有尊严吗?

第三,人类的价值观本身就存在各种冲突,众所周知,制定这些原则的与会者基本属于硅谷阵营。硅谷阵营在美国2016年大选中的态度及其价值观就和特朗普阵营发生了激烈冲突,他们制定的规则看上去很美,但在现实中未必符合很多人的价值观。

二十三条原则表达了人类良好的愿望,相当于科学家为机器人设置了一套“政治正确”。考虑到“政治正确”在当下美国的尴尬遭遇,我们要明白,人工智能的“政治正确”不是一蹴而就的,集体签名是一回事,做起来是另一回事。价值观不是静态的观念,而是在博弈中生成。价值观也不可能孤立地存在于某种群体身上,比如机器人的价值观实际上是人机的价值观。未来人工智能可能将加入这个博弈,形成新的、动态的人机价值观。我们需要在实践中不断摸索人工智能与人类发展的健康之路。二十三条原则起到了探路者的作用。

现实的法律问题

虽然“算法代替律法”的前景已经出现在不少科技人士的视野里,但到目前为止,法律依然是调节人类社会关系的主要手段。我们需要考虑,人工智能时代的法治会遭遇什么挑战,应该如何应对。

人工智能不仅仅是技术问题,而是整个社会运作方式改变的问题。《少数派报告》这样的电影已经预见了事前的预防性管理会出现。深度学习技术的最大作用在于预测,这也给以往法律思维带来新的启迪。比如法律将从事后补偿模式向事先预防模式变化。不过这个过程将非常不确定。

以算法的复杂性来说,技术界区分了强人工智能和弱人工智能。有学者认为,人工智能在技术认知上没有问题,但在法律上很难按照智能程度给出精确的标准。因为法律应对复杂世界的方式是确立一般性的简单规则,在概念上对社会个体进行抽象假定(如行为能力),而非针对特殊主体,否则规则体系本身将变得异常复杂,难于理解和操作。生产资料之间的信息变得越来越对称,但作为信息匹配中介的人工智能却变得更不透明,其规则设计和运作从属于用户甚至开发者都无法理解的秘密状态,这都回到了法律如何处理与代码的关系问题。[4]

具体体现在法律抽象化与技术黑箱化之间的冲突。比如,“快播案”这样一个涉及互联网技术而非人工智能技术的案件里,法律责任认定的过程很漫长也很艰难。监管者或法院并不想深入算法内部了解造成事故的技术原因是什么。只要法律认定这一黑箱应当在合理范围内得到控制,事故就可以避免,黑箱提供者就应当承担责任。在这种情况下,我们可以预见,保险(甚至是强制险)就成为那些事故发生概率小但潜在损失巨大的市场的不二选择。

涉及技术的航空、医疗保险市场已经十分发达,可以预见保险将会延伸至更多由人工智能驱动的服务行业。

在另一方面,也许真要靠算法的顶层设计来防止消极后果。人工智能技术可能不只是理工专业人士的领域,法律人士以及其他治理者也需要学习人工智能知识,这对法律人士和其他治理者提出了技术要求。法治管理需要嵌入生产环节,比如对算法处理的数据或生产性资源进行管理,防止造成消极后果。例如,征信系统中禁止收集种族、性别、宗教派别、政治倾向等歧视性信息;在声誉系统中打击网络推手刷单,避免虚假数据;通过地域性监管限制网络专车及其司机的资质等。法律机器人本身也是一种辅助人类面对复杂规则做出判断的好办法——用技术进步来解决技术带来的问题。

与人工智能相关的法律问题可能会很多,这里简单谈谈日常生活中人们比较关心的隐私问题。

有人说,智能时代,人们进入了无隐私社会,因为一切数据都处在互动中,哪怕是心率都被可穿戴设备分享了。未来的狗仔队也会智能化,运用数据分析和无处不在的视觉监控寻找明星的蛛丝马迹。在智能社会如何善待隐私?可能要突破原先的观念。隐私当然是现代个人人格的一部分。现实中,人们强调保护隐私的同时,也热衷记录隐私,甚至传播隐私。一切网络八卦行为都围绕隐私展开。没有隐私就没有独立个体,但在数据时代,绝对的隐私又会让个人无法被沟通和识别。最好的办法还是制度与技术手段的突破,比如建立统一的数据保护平台,让个人可以了解自己的数据被政府、公司使用的状况,避免单向过度的使用。

数字权力的重新分配

已故著名波兰裔英国思想家、社会学家鲍曼认为:数字时代带来了比监控更麻烦的问题,权力与政治在技术之下分离了。传统的政治囿于解决一个国家内部的问题。而跨国资本及其政治力量,却通过技术蔓延各个领域,制造出更多不确定性。同时,普通人对技术和官僚的信任在这种矛盾之下消解。权力随着资本和数字网络流动起来,传统政治却对约束它们无能为力。作为对全球化资本权力的反弹,欧美诸国“部落主义”重新崛起。这也就是英国脱欧、孤立主义在美国兴起的大背景。

鲍曼描述了西方国家的情景。但不确定性是新时代普遍存在的状况。

政治、经济、文化、传媒权力都会被数据智能渗透。这个不难理解,金融资本借助数字网络、智能投顾、闪频交易等技术在全世界腾挪闪移、惊鸿遍野。推特等社交媒体催化了中东国家的动荡,数字权力越过主权国家的界限,纵横捭阖。甚至以往向外输出数字权力的美国,也开始担心被跨国数字权力侵袭。阿桑奇和他的维基解密作为一个非政府组织,屡屡抛出政府黑材料,让美国政府非常头疼。黑客凭借网络技术获得了威慑美国统治阶层的能力。美国政府甚至指控俄罗斯使用黑客干预了美国2016年大选,这种紧张感是前所未有的。这既说明数字权力面前无人可以幸免,同时也预示着,从个人到国家,都有必要加紧适应数字智能时代。

数字权力的形态如同福柯所描述的现代权力,并非中央集权式的环状结构,而是错综复杂、多中心存在的网状结构。数字权力弥散于这张网中,难以捉摸。

从国家层面讲,需要在顶层设计中做好设置,防止政府滥用数字权力。而恶意挑战国家与社会正常运行的数字权力也已经在现实中出现。

彭博周刊2014年曾报道了一位哥伦比亚黑客,自称操纵了9个拉美国家的投票选举,手段包括窃取数据、安装恶意软件、在社交媒体上伪造大规模支持或反对的民意。

他的团队在对手阵营总部安装了恶意软件,可以监听电话、监视计算机。借此获得各种演讲稿、会议计划和选举安排。根据这些信息,他借助virtual army(水军)发布虚假的推特消息,利用低端推特机器人追加大量点赞和关注。设置程序在凌晨自动拨打竞选电话,以对手阵营的名义骚扰选民。借助类似手段,他曾在不同程度上影响了委内瑞拉、尼加拉瓜、巴拿马、洪都拉斯、萨尔瓦多、哥伦比亚、哥斯达黎加和危地马拉的民主选举,时间长达8年之久。他说:“当我意识到,人们更愿意相信网络舆论而非现实,我发现,我拥有了让人们相信任何事物的能力。”

在国内外的社交媒体上,具有简单智能的机器“水军”都蠢蠢欲动。“未来你分不清电脑对面是不是人”这件事已经成真。不过,“水军”并不一定意味着负面,因为用于正确目的的“水军”并不水。某种意义上,问答机器人和机器客服就是“水军”的变种。即便在最容易“水”的论坛、评论区,机器人的表现也可能好过人类。王海峰就说过,在很多评论区,往往是一些人类在灌水、乱喷,而机器人则在发表有营养的评论,带动评论的热度,保持积极正面的舆论方向。

每个现代人都被自己生产的数据包围着。智能化的数据已经成为人类的第二肉身。就像第一肉身会担心疾病、车祸等安全问题,第二肉身也同样面临安全隐患。

互联网时代个人信息面临种种泄露风险。诈骗业的技术也在更新。比起通常的电话诈骗,不法分子甚至用起了大数据方法。上海黄浦区警方在2017年初破获了一起惊人的网络盗窃案。首先是黑客用软件批量生成电话号码,再利用扫描工具逐个把号码挂到网上扫描,通过一些黑客存放泄露密码的网站(一般自称“社工库”),把电话号码对应的登录密码扫出来。这在业界被称为“撞库”。用这种简单粗暴的方法,可以快速得到很多用户的登录信息,然后用于偷取银行卡存款等犯罪活动。

一个社会中总会存在不法分子。互联网时代数据技术爆发式增长,人类适应能力的落后也给罪犯留下了可乘之机。这就如同汽车刚被发明时给社会带来新的交通不安全,不过后来人们发明了红绿灯,用新规则制约技术,保障安全。传统的数据管控方式在互联网时代显得千疮百孔,普通人或者团体很难主动保护好自己的隐私数据。这需要多方共同努力,警方同样可以利用大数据技术来对付犯罪,科技公司也可以为此助力。

大数据领域的红绿灯也出现了。以电信诈骗问题为例,包括“百度安全”在内的多家公司已经与管理部门合作,携手打击电信犯罪。依托大数据建立“安全号码库”和“诈骗电话地图”,一方面可以将信息共享给公安机关,定位诈骗嫌疑人的号码和所在位置;另一方面可以实时拦截诈骗电话并在诈骗电话地图上同步显示、识别诈骗电话动态,“亮红灯”提醒用户。“百度安全”至今已经积累了2亿多安全号码库,每日拦截骚扰诈骗电话超100万次,诈骗电话拦截率保持在99.98%以上。与此同时,在手机上安装了安全软件的用户,对可疑电话的举报、标注都可以上传到服务器,帮助识别诈骗号码。在这种动态循环中,安全软件会越来越聪明,识别诈骗号码的能力也会越来越强。

深度学习使防火墙技术也得到了升级。做网管的人都知道,过去每次安装防护软件,都要设定一大堆规则以预防非法访问。而采用深度学习技术,可以让安全系统自动学习用户访问规律,识别异常访问。系统自己设定规则,远比人类网管高效。

信息时代,虽然一些恶性诈骗案件和安全事件被曝光引发了恐惧,但是我们要知道,有更多的数字诈骗被阻止了,提供支持的正是人工智能技术。无论是网络金融安全技术还是智慧城市的智能监控技术,都是魔高一尺,道高一丈,在博弈中不断提升。

更多时候,我们身边的技术极客会利用技术能力做出一些“欢乐”的越界行为。比如支付宝刚推出AR红包,就有人通过训练卷积神经网络,反向破解被横条遮住部分画面的线索照片,去掉横条,获得原始图像,轻松找到红包。方法并不难,前提是使用者懂得使用深度学习共享平台。

北京、上海的车牌特别难摇。车牌中签号码由系统“随机”给出,但这个随机也遵循一定的算法。有人居然利用机器学习技术,琢磨车牌摇号的规律,据说提高了中签率。

环顾一下你所在的工作单位,你会发现有的人擅长使用很多技术工具来强化自己的能力,有的人却整天为了记不住各种登录密码而苦恼不堪。在未来,对数据智能的熟悉程度会影响一个人工作、生活的幸福感。做一个有准备的人,才能在数据生活中游刃有余。

新世代 新未来

最后让我们还是把视线投向年轻人,他们是未来人类社会最宝贵的财富。

在日本、中国、欧美等许多发达的城市社会中,兴起了一个被称为“尼特族”的群体,主要指一群无业、在家啃老、沉迷于动漫作品的年轻人。据统计,在日本15~34岁的年龄段中尼特族数量高达60多万人,占该年龄段人口的2.2%。

尼特族人群往往沉迷于“二次元”文化,和所谓“宅男”群体高度重合,对动漫游戏中色情、暴力的向往和对现实世界的恐惧成为这个群体最基本的特征。他们对屏幕里生动可爱的动画角色已经丧失了抵抗力,当面对一个各方面都完美的人工智能角色甚至实体机器人时,又会是怎样的不能自拔?

2016年6月,吴恩达与刘慈欣进行了一场关于人工智能的对话。“大刘”对未来人工智能提出了自己的大胆设想:人工智能可以成为人类的性伴侣,并从根本上改变人类的文化趋势。

人工智能是否可以在生活中彻底替代“人”的角色?作为科学家,吴恩达的回应显得更谨慎,称当下人工智能在技术上还相去甚远,但是也没有否认这种未来出现的可能。

未来人类可以按照自己的愿望制造出各种“完美”事物。但这真是完美吗?会不会只是人类自身的镜像?

当人工智能破茧而出,人类却可能将自己封闭于虚拟之中。刘慈欣写过一个短篇科幻小说,写的是当人类把大脑接入虚拟世界,从此醉心于虚拟世界的游戏,感受上帝般的虚妄,而不再向宇宙张望,地球文明就闭上了眼睛。

和所有新技术一样,人工智能也会被用来向人类许诺美好的生活。它已经使很多人的生活变得更舒适。但人类依然需要奋斗精神。最早把巴菲特投资理念翻译介绍到中国的中国建设银行前董事、经济学家孙涤先生认为,西方经济学以理性化个人是经济发展的基础为前提是不对的,那些敢于大胆创新的人恰恰是具有动物精神的人。人工智能基础上的精细化社会可以让人的生活变得精致,但人因此可能反而被各种精致的教条束缚,失去勇猛的动物精神。未来每个人都可以轻易接入智能流,但是从现在起就要想一想,该把智能流运用到哪里才符合人的价值。

每当一个新时代来临,总有一部分人摩拳擦掌,一部分人随波逐流,还有一部分人茫然无措。这几年常有人说“未来已来,只是尚未流行”,充满乐观主义情绪。但我们要意识到,从来没有完全有利的变革,总是会包含失落、分化和冲击,只是人们后知后觉。人工智能科学家虽然深处技术金字塔尖端,但是行动态度普遍持重。百度深度学习实验室的周杰就说自己的态度比较“保守”,保守的意思不是踌躇不前,而是在坚信人工智能发展方向的同时,不赞成过于激进的态度。

一百多年前,严复把《进化论与伦理学》翻译介绍到中国。他在翻译中故意“曲解”了原著,只强调生物进化中竞争的一面,而省略了赫胥黎关于伦理的思考。身处当时第一强国英格兰的赫胥黎,梦想一个对子民更加“仁慈”的英格兰,而面对“三千年未有之大变局”的严复,则强调丛林法则,用“适者生存”召唤一个复兴图强的中国。时过境迁,今天中国人站在崛起的路上,既要继承先贤的忧患,又要有所超越。与赫胥黎一样,我们既应思考智能社会的力量,也应思考如何让智能社会更加和谐。

忧思不代表悲观,也只有在忧思基础上的乐观,才是真正的乐观。想象未来是一件困难的事情,虽然未来无比诱人,值得人们为之奋斗。

在未来漫长的智能岁月里,即便诸如百度、谷歌这样的人工智能公司,可能也只是浩瀚历史中的一个过客。我们是人类,有我们的弱点和优点,有我们的短视,也有我们不灭的抱负。古人说“不以物喜,不以己悲”“担当身前事,何计身后评”,正是我们人类担当精神的体现。我们能做的就是抓住当下。人类的存在就是“在路上”。百度要为美丽新世界铺垫好最初的基因,中国要从大国变成伟大的智能文明国家,每个人也都应该不甘落后于机器,努力做更好的人,知道更多,做到更多,体验更多,一起向着美好但不确定的未来进发。

[1] 托马斯·亨利·赫胥黎(Thomas Henry Huxley,1825—1895),英国博物学家、教育家,达尔文进化论最杰出的支持者。著作《进化论与伦理学》因为严复的翻译而深刻影响中国发展,汉译名为《天演论》。

[2] 资料来源:据人工智能产业智库“新智元”的翻译。

[3] 机器人的鲁棒性就是描述机器人在内部或外部存在扰动甚至变化时保持原有或期望状态的能力的一种特性。

[4] 胡凌。人工智能的法律想象[J].文化纵横,2017(2).