11 美丽新世界 严肃新问题(2 / 2)

人工智能为表达关于人类的科学理论提供了新的可能,帕里西提出了“作为人工构造的理论”(theories as artefacts)——创造人工构造(类人机器人)来代替研究。这个理论基于这样一条原则:“无论X是什么,要理解X,就必须以人工对其进行再现。”如果你的理论不好,人工构造就无法造出来。如果你能造出类人机器人,就说明你的研究成功了。从根本上说,这是把研究和实践统一了,研究就是实践,实践就是研究。这个过程除了可以克服前面所说的人文学科问题,还能把多种学科诸如社会学、心理学、生物学、政治学、语言学、经济学、文史哲等整合在一起,打破目前各类学科机械分割的局面。

帕里西认为,目前的机器人或者人工智能与人的区别在于,人的思维中包含了动机与认知两种模式。人的任何行为都有动机,比如为了吃喝与生存、为了安全与繁殖、为了荣誉与理想等。而现有的机器人只有认知,无所谓动机,因为它的目的是由人设定的。机器人只是工具,为了满足人的特定需要而存在。

但是机器人可以是人的影子,为此他区分了两类机器人:实用机器人和类人机器人。后者正是科学家需要的。前者只有认知思维,后者却设定了动机,比如设定机器人需要定期获取能量以求得生存。具体做法是在计算机中构造一个机器人程序,可以为它装配饥饿传感器,令它在一定的虚拟空间里寻找食物和水。食物用食物令牌代替,水用水令牌代替,两种令牌分布在不同区域,然后让机器人自主决定获取这些令牌的路线和顺序,找不到就会死亡。以此观察机器人如何做出决定。

同理,可以设定机器人需要规避一些危险令牌以保障安全,需要通过与其他机器人交换编码而产生新的后代(繁殖),甚至设立财产观念、遵守规则的动机等。观察在这些动机的驱动下,机器人如何进化出类人的社会意识、语言、文化、情感乃至艺术和宗教。比如,制造男性机器人和女性机器人,并赋予机器人保护后代机器人的动机,观察它们如何发展出家庭观念和实体。

科学家这样制造的机器人可能没有任何实际应用价值,比如会犯错的机器人,会生病的机器人,会做梦的机器人,会难过、会高兴的机器人……而工具是不应该犯错误、开小差的,这些是人类的特性。在这种思想方法下,制造人工智能的过程不再只是制造服务于人类外在需求的工具,而正是人类了解自己的过程。

这样的研究已经有了一定成果,开拓了过去的心理学、社会学从来没有过的视野。

不过读者可能会看出一点点“危险”,类人机器人会不会最终演化出自我意识?它如何处理与人类的关系?这种研究会被宗教人士看作是一种僭越吗?因为科学家在做上帝做的事情——造人。不过科学研究与宗教不同,本质是对人类自身的对象化研究。生命就是不断地“生成创造”。工具理性问题在这里遇到了新的场景:在机器人内部实现对工具理性的超越。归根结底,这是借助人工智能展开自我反思,同时又指导人类发展人工智能,对我们思考机器人如何融入人类社会,如何参与人类的文化、社会生活都会有丰富启发。

基督教新教把人类看作上帝实现自我意志的工具,而人类的自我反思总是在克服这种工具性。人不应该只是工具手段,人应该是目的和手段的统一,这一点可以在人工智能身上付诸实践。

<h2>

二十三条军规</h2>

为&ldquo;类人机器人&rdquo;设定伦理和规则看来也是必要的。

在2017年1月5~8日举行的&ldquo;Benificial AI 2017&rdquo;会议上,1980名来自产业、学术和研究界的人工智能相关人士共同制定了&ldquo;二十三条原则&rdquo;,宗旨在于确保人工智能的健康发展,人人都能从人工智能中受益。这二十三条原则分为研究问题、伦理价值观和长期问题三个部分。[2]

研究问题方面,提出人工智能研究的目标是创造有益的智能,而不是让它像经历生物演化一样没有确定的发展方向。投资人工智能应该附带确保该研究是用于发展有益的人工智能,包括计算机科学、经济学、法律、伦理和社会研究中的棘手问题,例如:我们如何使未来的人工智能系统具有高度鲁棒性[3]?这样才能够让它们在没有故障或被黑客入侵的情况下做我们想要它们做的事情。我们如何通过自动化实现繁荣,同时不打破资源和目的的平衡?我们如何更新法律制度实现更大的公平和更高的效率,跟上人工智能的发展步伐,管控与人工智能相关的风险?人工智能应该具有怎样的价值观,应该具有何等法律和伦理地位?

其他研究问题包括人工智能研究人员和政策制定者之间应该进行有建设意义、健康的交流;培养合作、信任和透明的开发文化;避免竞赛,避免在安全标准方面进行削减。

伦理价值观方面,二十三条原则提出了很多愿景,包括人工智能系统的安全,故障透明度(如果人工智能系统造成伤害,应该可以确定原因);由机器人做出的任何涉及司法决策的行动都要透明可解释,供主管人权机构审核;设计者与使用者要担起道德影响责任;要确保高度自治的人工智能系统的目标和行为与人类的价值观相一致,尊重人类的尊严、权利、自由和文化多样性;保障个人隐私,不仅人工智能系统能够分析和利用人类产生的数据,人类也应该有权获取、管理和控制自身产生的数据;不得不合理地限制人类真实或感知到的自由。人工智能带来的利益应当是普惠人类的;由人类选择如何以及是否委托人工智能系统去完成人类选择的目标;人工智能的力量应当尊重和改善社会健康发展所需的社会和公民进程,而不是颠覆这种进程;避免人工智能军备竞赛。

长期问题方面,建议在没有达成共识的情况下,避免对未来人工智能能力上限做出较为肯定的假设;通过相应的关怀和资源对其进行规划和管理,应对风险;对于那些不断自我完善或通过自我复制快速提高质量或数量的人工智能系统,必须采取严格的安全和控制措施。

最后一条是&ldquo;共同利益&rdquo;:超级智慧只应该为广泛共享的伦理理想服务,为了全人类而不是一个国家或组织的利益而发展。

二十三条原则,这个名字不由让人想起黑色幽默文学代表作《第二十二条军规》,那是一条不可能完成的规则。看起来,这二十三条原则更像是二十三条呼吁,提出的是问题而不是解决方案,代表的是愿望而不是已经实现的现实。其中涉及很多价值观问题,科学家倡导发展机器人要遵循人类的价值观,这是理所当然的。不过这里就会有三个问题:

第一,这里制定的价值观基础在于把机器看作工具,要求人类在使用工具时不得损害人类利益。实际上,在任何工具的使用上,人类都没有完全做到这一点,比如军备。不过确实可以尽力加以限制,比如军备条约。

第二,人们之所以前所未有地郑重其事,是因为意识到机器人不同于以往的工具。普通工具没有生命、没有意识,完全听命于人的操作。但机器人如果具有了类人意识,那么人类怎么对待它们?显然二十三条原则并未考虑这个问题。人类拒绝奴役人类,把人当作工具就是一种奴役,那么对机器人呢?如果人类的价值观就是让机器人做工具,类人机器人会认为这种价值观有尊严吗?

第三,人类的价值观本身就存在各种冲突,众所周知,制定这些原则的与会者基本属于硅谷阵营。硅谷阵营在美国2016年大选中的态度及其价值观就和特朗普阵营发生了激烈冲突,他们制定的规则看上去很美,但在现实中未必符合很多人的价值观。

二十三条原则表达了人类良好的愿望,相当于科学家为机器人设置了一套&ldquo;政治正确&rdquo;。考虑到&ldquo;政治正确&rdquo;在当下美国的尴尬遭遇,我们要明白,人工智能的&ldquo;政治正确&rdquo;不是一蹴而就的,集体签名是一回事,做起来是另一回事。价值观不是静态的观念,而是在博弈中生成。价值观也不可能孤立地存在于某种群体身上,比如机器人的价值观实际上是人机的价值观。未来人工智能可能将加入这个博弈,形成新的、动态的人机价值观。我们需要在实践中不断摸索人工智能与人类发展的健康之路。二十三条原则起到了探路者的作用。

<h2>

现实的法律问题</h2>

虽然&ldquo;算法代替律法&rdquo;的前景已经出现在不少科技人士的视野里,但到目前为止,法律依然是调节人类社会关系的主要手段。我们需要考虑,人工智能时代的法治会遭遇什么挑战,应该如何应对。

人工智能不仅仅是技术问题,而是整个社会运作方式改变的问题。《少数派报告》这样的电影已经预见了事前的预防性管理会出现。深度学习技术的最大作用在于预测,这也给以往法律思维带来新的启迪。比如法律将从事后补偿模式向事先预防模式变化。不过这个过程将非常不确定。

以算法的复杂性来说,技术界区分了强人工智能和弱人工智能。有学者认为,人工智能在技术认知上没有问题,但在法律上很难按照智能程度给出精确的标准。因为法律应对复杂世界的方式是确立一般性的简单规则,在概念上对社会个体进行抽象假定(如行为能力),而非针对特殊主体,否则规则体系本身将变得异常复杂,难于理解和操作。生产资料之间的信息变得越来越对称,但作为信息匹配中介的人工智能却变得更不透明,其规则设计和运作从属于用户甚至开发者都无法理解的秘密状态,这都回到了法律如何处理与代码的关系问题。[4]

具体体现在法律抽象化与技术黑箱化之间的冲突。比如,&ldquo;快播案&rdquo;这样一个涉及互联网技术而非人工智能技术的案件里,法律责任认定的过程很漫长也很艰难。监管者或法院并不想深入算法内部了解造成事故的技术原因是什么。只要法律认定这一黑箱应当在合理范围内得到控制,事故就可以避免,黑箱提供者就应当承担责任。在这种情况下,我们可以预见,保险(甚至是强制险)就成为那些事故发生概率小但潜在损失巨大的市场的不二选择。

涉及技术的航空、医疗保险市场已经十分发达,可以预见保险将会延伸至更多由人工智能驱动的服务行业。

在另一方面,也许真要靠算法的顶层设计来防止消极后果。人工智能技术可能不只是理工专业人士的领域,法律人士以及其他治理者也需要学习人工智能知识,这对法律人士和其他治理者提出了技术要求。法治管理需要嵌入生产环节,比如对算法处理的数据或生产性资源进行管理,防止造成消极后果。例如,征信系统中禁止收集种族、性别、宗教派别、政治倾向等歧视性信息;在声誉系统中打击网络推手刷单,避免虚假数据;通过地域性监管限制网络专车及其司机的资质等。法律机器人本身也是一种辅助人类面对复杂规则做出判断的好办法&mdash;&mdash;用技术进步来解决技术带来的问题。

与人工智能相关的法律问题可能会很多,这里简单谈谈日常生活中人们比较关心的隐私问题。

有人说,智能时代,人们进入了无隐私社会,因为一切数据都处在互动中,哪怕是心率都被可穿戴设备分享了。未来的狗仔队也会智能化,运用数据分析和无处不在的视觉监控寻找明星的蛛丝马迹。在智能社会如何善待隐私?可能要突破原先的观念。隐私当然是现代个人人格的一部分。现实中,人们强调保护隐私的同时,也热衷记录隐私,甚至传播隐私。一切网络八卦行为都围绕隐私展开。没有隐私就没有独立个体,但在数据时代,绝对的隐私又会让个人无法被沟通和识别。最好的办法还是制度与技术手段的突破,比如建立统一的数据保护平台,让个人可以了解自己的数据被政府、公司使用的状况,避免单向过度的使用。

<h2>

数字权力的重新分配</h2>

已故著名波兰裔英国思想家、社会学家鲍曼认为:数字时代带来了比监控更麻烦的问题,权力与政治在技术之下分离了。传统的政治囿于解决一个国家内部的问题。而跨国资本及其政治力量,却通过技术蔓延各个领域,制造出更多不确定性。同时,普通人对技术和官僚的信任在这种矛盾之下消解。权力随着资本和数字网络流动起来,传统政治却对约束它们无能为力。作为对全球化资本权力的反弹,欧美诸国&ldquo;部落主义&rdquo;重新崛起。这也就是英国脱欧、孤立主义在美国兴起的大背景。

鲍曼描述了西方国家的情景。但不确定性是新时代普遍存在的状况。

政治、经济、文化、传媒权力都会被数据智能渗透。这个不难理解,金融资本借助数字网络、智能投顾、闪频交易等技术在全世界腾挪闪移、惊鸿遍野。推特等社交媒体催化了中东国家的动荡,数字权力越过主权国家的界限,纵横捭阖。甚至以往向外输出数字权力的美国,也开始担心被跨国数字权力侵袭。阿桑奇和他的维基解密作为一个非政府组织,屡屡抛出政府黑材料,让美国政府非常头疼。黑客凭借网络技术获得了威慑美国统治阶层的能力。美国政府甚至指控俄罗斯使用黑客干预了美国2016年大选,这种紧张感是前所未有的。这既说明数字权力面前无人可以幸免,同时也预示着,从个人到国家,都有必要加紧适应数字智能时代。

数字权力的形态如同福柯所描述的现代权力,并非中央集权式的环状结构,而是错综复杂、多中心存在的网状结构。数字权力弥散于这张网中,难以捉摸。

从国家层面讲,需要在顶层设计中做好设置,防止政府滥用数字权力。而恶意挑战国家与社会正常运行的数字权力也已经在现实中出现。

彭博周刊2014年曾报道了一位哥伦比亚黑客,自称操纵了9个拉美国家的投票选举,手段包括窃取数据、安装恶意软件、在社交媒体上伪造大规模支持或反对的民意。

他的团队在对手阵营总部安装了恶意软件,可以监听电话、监视计算机。借此获得各种演讲稿、会议计划和选举安排。根据这些信息,他借助virtual army(水军)发布虚假的推特消息,利用低端推特机器人追加大量点赞和关注。设置程序在凌晨自动拨打竞选电话,以对手阵营的名义骚扰选民。借助类似手段,他曾在不同程度上影响了委内瑞拉、尼加拉瓜、巴拿马、洪都拉斯、萨尔瓦多、哥伦比亚、哥斯达黎加和危地马拉的民主选举,时间长达8年之久。他说:&ldquo;当我意识到,人们更愿意相信网络舆论而非现实,我发现,我拥有了让人们相信任何事物的能力。&rdquo;

在国内外的社交媒体上,具有简单智能的机器&ldquo;水军&rdquo;都蠢蠢欲动。&ldquo;未来你分不清电脑对面是不是人&rdquo;这件事已经成真。不过,&ldquo;水军&rdquo;并不一定意味着负面,因为用于正确目的的&ldquo;水军&rdquo;并不水。某种意义上,问答机器人和机器客服就是&ldquo;水军&rdquo;的变种。即便在最容易&ldquo;水&rdquo;的论坛、评论区,机器人的表现也可能好过人类。王海峰就说过,在很多评论区,往往是一些人类在灌水、乱喷,而机器人则在发表有营养的评论,带动评论的热度,保持积极正面的舆论方向。

每个现代人都被自己生产的数据包围着。智能化的数据已经成为人类的第二肉身。就像第一肉身会担心疾病、车祸等安全问题,第二肉身也同样面临安全隐患。

互联网时代个人信息面临种种泄露风险。诈骗业的技术也在更新。比起通常的电话诈骗,不法分子甚至用起了大数据方法。上海黄浦区警方在2017年初破获了一起惊人的网络盗窃案。首先是黑客用软件批量生成电话号码,再利用扫描工具逐个把号码挂到网上扫描,通过一些黑客存放泄露密码的网站(一般自称&ldquo;社工库&rdquo;),把电话号码对应的登录密码扫出来。这在业界被称为&ldquo;撞库&rdquo;。用这种简单粗暴的方法,可以快速得到很多用户的登录信息,然后用于偷取银行卡存款等犯罪活动。

一个社会中总会存在不法分子。互联网时代数据技术爆发式增长,人类适应能力的落后也给罪犯留下了可乘之机。这就如同汽车刚被发明时给社会带来新的交通不安全,不过后来人们发明了红绿灯,用新规则制约技术,保障安全。传统的数据管控方式在互联网时代显得千疮百孔,普通人或者团体很难主动保护好自己的隐私数据。这需要多方共同努力,警方同样可以利用大数据技术来对付犯罪,科技公司也可以为此助力。

大数据领域的红绿灯也出现了。以电信诈骗问题为例,包括&ldquo;百度安全&rdquo;在内的多家公司已经与管理部门合作,携手打击电信犯罪。依托大数据建立&ldquo;安全号码库&rdquo;和&ldquo;诈骗电话地图&rdquo;,一方面可以将信息共享给公安机关,定位诈骗嫌疑人的号码和所在位置;另一方面可以实时拦截诈骗电话并在诈骗电话地图上同步显示、识别诈骗电话动态,&ldquo;亮红灯&rdquo;提醒用户。&ldquo;百度安全&rdquo;至今已经积累了2亿多安全号码库,每日拦截骚扰诈骗电话超100万次,诈骗电话拦截率保持在99.98%以上。与此同时,在手机上安装了安全软件的用户,对可疑电话的举报、标注都可以上传到服务器,帮助识别诈骗号码。在这种动态循环中,安全软件会越来越聪明,识别诈骗号码的能力也会越来越强。

深度学习使防火墙技术也得到了升级。做网管的人都知道,过去每次安装防护软件,都要设定一大堆规则以预防非法访问。而采用深度学习技术,可以让安全系统自动学习用户访问规律,识别异常访问。系统自己设定规则,远比人类网管高效。

信息时代,虽然一些恶性诈骗案件和安全事件被曝光引发了恐惧,但是我们要知道,有更多的数字诈骗被阻止了,提供支持的正是人工智能技术。无论是网络金融安全技术还是智慧城市的智能监控技术,都是魔高一尺,道高一丈,在博弈中不断提升。

更多时候,我们身边的技术极客会利用技术能力做出一些&ldquo;欢乐&rdquo;的越界行为。比如支付宝刚推出AR红包,就有人通过训练卷积神经网络,反向破解被横条遮住部分画面的线索照片,去掉横条,获得原始图像,轻松找到红包。方法并不难,前提是使用者懂得使用深度学习共享平台。

北京、上海的车牌特别难摇。车牌中签号码由系统&ldquo;随机&rdquo;给出,但这个随机也遵循一定的算法。有人居然利用机器学习技术,琢磨车牌摇号的规律,据说提高了中签率。

环顾一下你所在的工作单位,你会发现有的人擅长使用很多技术工具来强化自己的能力,有的人却整天为了记不住各种登录密码而苦恼不堪。在未来,对数据智能的熟悉程度会影响一个人工作、生活的幸福感。做一个有准备的人,才能在数据生活中游刃有余。

<h2>

新世代 新未来</h2>

最后让我们还是把视线投向年轻人,他们是未来人类社会最宝贵的财富。

在日本、中国、欧美等许多发达的城市社会中,兴起了一个被称为&ldquo;尼特族&rdquo;的群体,主要指一群无业、在家啃老、沉迷于动漫作品的年轻人。据统计,在日本15~34岁的年龄段中尼特族数量高达60多万人,占该年龄段人口的2.2%。

尼特族人群往往沉迷于&ldquo;二次元&rdquo;文化,和所谓&ldquo;宅男&rdquo;群体高度重合,对动漫游戏中色情、暴力的向往和对现实世界的恐惧成为这个群体最基本的特征。他们对屏幕里生动可爱的动画角色已经丧失了抵抗力,当面对一个各方面都完美的人工智能角色甚至实体机器人时,又会是怎样的不能自拔?

2016年6月,吴恩达与刘慈欣进行了一场关于人工智能的对话。&ldquo;大刘&rdquo;对未来人工智能提出了自己的大胆设想:人工智能可以成为人类的性伴侣,并从根本上改变人类的文化趋势。

人工智能是否可以在生活中彻底替代&ldquo;人&rdquo;的角色?作为科学家,吴恩达的回应显得更谨慎,称当下人工智能在技术上还相去甚远,但是也没有否认这种未来出现的可能。

未来人类可以按照自己的愿望制造出各种&ldquo;完美&rdquo;事物。但这真是完美吗?会不会只是人类自身的镜像?

当人工智能破茧而出,人类却可能将自己封闭于虚拟之中。刘慈欣写过一个短篇科幻小说,写的是当人类把大脑接入虚拟世界,从此醉心于虚拟世界的游戏,感受上帝般的虚妄,而不再向宇宙张望,地球文明就闭上了眼睛。

和所有新技术一样,人工智能也会被用来向人类许诺美好的生活。它已经使很多人的生活变得更舒适。但人类依然需要奋斗精神。最早把巴菲特投资理念翻译介绍到中国的中国建设银行前董事、经济学家孙涤先生认为,西方经济学以理性化个人是经济发展的基础为前提是不对的,那些敢于大胆创新的人恰恰是具有动物精神的人。人工智能基础上的精细化社会可以让人的生活变得精致,但人因此可能反而被各种精致的教条束缚,失去勇猛的动物精神。未来每个人都可以轻易接入智能流,但是从现在起就要想一想,该把智能流运用到哪里才符合人的价值。

每当一个新时代来临,总有一部分人摩拳擦掌,一部分人随波逐流,还有一部分人茫然无措。这几年常有人说&ldquo;未来已来,只是尚未流行&rdquo;,充满乐观主义情绪。但我们要意识到,从来没有完全有利的变革,总是会包含失落、分化和冲击,只是人们后知后觉。人工智能科学家虽然深处技术金字塔尖端,但是行动态度普遍持重。百度深度学习实验室的周杰就说自己的态度比较&ldquo;保守&rdquo;,保守的意思不是踌躇不前,而是在坚信人工智能发展方向的同时,不赞成过于激进的态度。

一百多年前,严复把《进化论与伦理学》翻译介绍到中国。他在翻译中故意&ldquo;曲解&rdquo;了原著,只强调生物进化中竞争的一面,而省略了赫胥黎关于伦理的思考。身处当时第一强国英格兰的赫胥黎,梦想一个对子民更加&ldquo;仁慈&rdquo;的英格兰,而面对&ldquo;三千年未有之大变局&rdquo;的严复,则强调丛林法则,用&ldquo;适者生存&rdquo;召唤一个复兴图强的中国。时过境迁,今天中国人站在崛起的路上,既要继承先贤的忧患,又要有所超越。与赫胥黎一样,我们既应思考智能社会的力量,也应思考如何让智能社会更加和谐。

忧思不代表悲观,也只有在忧思基础上的乐观,才是真正的乐观。想象未来是一件困难的事情,虽然未来无比诱人,值得人们为之奋斗。

在未来漫长的智能岁月里,即便诸如百度、谷歌这样的人工智能公司,可能也只是浩瀚历史中的一个过客。我们是人类,有我们的弱点和优点,有我们的短视,也有我们不灭的抱负。古人说&ldquo;不以物喜,不以己悲&rdquo;&ldquo;担当身前事,何计身后评&rdquo;,正是我们人类担当精神的体现。我们能做的就是抓住当下。人类的存在就是&ldquo;在路上&rdquo;。百度要为美丽新世界铺垫好最初的基因,中国要从大国变成伟大的智能文明国家,每个人也都应该不甘落后于机器,努力做更好的人,知道更多,做到更多,体验更多,一起向着美好但不确定的未来进发。

[1] 托马斯&middot;亨利&middot;赫胥黎(Thomas Henry Huxley,1825&mdash;1895),英国博物学家、教育家,达尔文进化论最杰出的支持者。著作《进化论与伦理学》因为严复的翻译而深刻影响中国发展,汉译名为《天演论》。

[2] 资料来源:据人工智能产业智库&ldquo;新智元&rdquo;的翻译。

[3] 机器人的鲁棒性就是描述机器人在内部或外部存在扰动甚至变化时保持原有或期望状态的能力的一种特性。

[4] 胡凌。人工智能的法律想象[J].文化纵横,2017(2).