第三章 人机大战:ai真的会挑战人类?(2 / 2)

如果蒂姆·厄班所预言的技术加速发展规律无法与人工智能的长期发展趋势相吻合,由这一规律推导出的,超人工智能在可见的近未来即将降临的结论也就难以成立了。

当然,这只是我个人的判断。今天,学者们对超人工智能何时到来的问题众说纷纭。悲观者认为技术加速发展的趋势无法改变,超越人类智能的机器将在不远的将来得以实现,那时的人类将面临生死存亡的重大考验。而乐观主义者则更愿意相信,人工智能在未来相当长的一个历史时期都只是人类的工具,很难突破超人工智能的门槛。

<h3>

霍金的忧虑</h3>

担忧超人工智能,对人类未来持悲观态度的人不少。其中,理论物理学家、《时间简史》的作者霍金是最有影响的一个。早在谷歌Alpha Go在公众中掀起AI热潮之前,霍金就通过媒体告诉大家:&ldquo;完全人工智能的研发可能意味着人类的末日。&rdquo;67

作为地球上少数有能力用数学公式精确描述和推导宇宙运行奥秘的人之一,霍金的宇宙观和科技史观无疑是值得重视的。事实上,霍金并不否认,当代蓬勃发展的人工智能技术已经在许多行业发挥着至关重要的作用,但他所真正忧虑的,是机器与人在进化速度上的不对等性。霍金说:&ldquo;人工智能可以在自身基础上进化,可以一直保持加速度的趋势,不断重新设计自己。而人类,我们的生物进化速度相当有限,无法与之竞争,终将被淘汰。&rdquo;

此外,霍金同时还担心人工智能普及所导致的人类失业问题。霍金说:&ldquo;工厂自动化已经让众多传统制造业工人失业,人工智能的兴起很有可能会让失业潮波及中产阶级,最后只给人类留下护理、创造和监督工作。&rdquo;68

基本上,霍金的担忧还是建立在人工智能技术将以加速度的趋势不断增速发展的基础上。如果我们假设这一基础的正确性,那么,霍金的逻辑推论与我们之前谈到的&ldquo;奇点&rdquo;理论并没有本质的区别。反之,如果人工智能在未来的发展不一定永远遵循加速趋势,那么,霍金有关人类终将被淘汰的结论就未必成立。

特斯拉与Space X公司创始人,被誉为&ldquo;钢铁侠&rdquo;的埃隆&middot;马斯克(Elon Musk)与霍金有大致相似的担忧。马斯克说:&ldquo;我们必须非常小心人工智能。如果必须预测我们面临的最大现实威胁,恐怕就是人工智能了。&rdquo;69

事实上,从行动上看,霍金和马斯克并不是简单的悲观主义者,他们在警告世人提防人工智能威胁的同时,也在积极行动,试图为人类找出应对未来潜在威胁的对策。马斯克说:&ldquo;我越来越倾向于认为,也许在国家层面或国际层面,必须有一种规范的监管机制,来保证我们不会在这方面做任何蠢事。&rdquo;

除了呼吁建立监管机制外,马斯克还与萨姆&middot;奥尔特曼(Sam Altman)一起创立了非营利性质的科研公司Open AI。谈到创立Open AI的初衷,马斯克说:&ldquo;为了保证一个美好的未来,我们最需要做什么?我们可以冷眼旁观,我们也可以鼓励立法监管,或者,我们还可以将那些特别关心如何用安全的、对人类有益的方式来开发AI的人合理地组织起来研发AI。&rdquo;70

如果说这个世界上还有几家纯粹理想主义的公司的话,Open AI一定算一个。Open AI一面聚集了一批AI领域的顶尖高手,研发最前沿的AI技术(主要是强化学习和无监督学习技术),甚至探索实现强人工智能的可能性;一面反复强调自己的使命是研发&ldquo;安全的&rdquo;人工智能,通过实践来探寻将人工智能技术的潜在威胁降至最低的方法。

马斯克和奥尔特曼的Open AI看上去是在做一件自相矛盾的事情:既积极地研发人工智能甚至是强人工智能,又希望将人工智能关在道德或制度的&ldquo;牢笼&rdquo;里,让AI难以威胁人类。事实上,目前Open AI所开展的工作,和其他人工智能科研机构所做的并没有本质的不同。据说,Open AI的研究总监伊尔亚&middot;苏茨克维(Ilya Sutskever)表示,Open AI最重要的目标,就是发表有影响力的文章71。或许,马斯克和奥尔特曼的意思是说,既然奇点来临无法避免,那不如积极投入,至少,当威胁来临时,我们对威胁本身的理解会更加深刻。

2017年年初,霍金和马斯克均表示,为了防止人工智能威胁人类,他们支持加州阿西洛马(Asilomar)会议通过的23条基本原则72。这23条基本原则涵盖了三个范畴:1)科研问题;2)伦理和价值观;3)长期问题。

阿西洛马23条基本原则像科幻大师阿西莫夫笔下著名的&ldquo;机器人三定律&rdquo;一样,从方法、特征、伦理、道德等多方面,限定未来的人工智能可以做什么,不可以做什么。例如,有关人工智能相关的伦理和价值观,其中几条原则是这样规定的:

&middot;安全性:人工智能系统应当在整个生命周期内确保安全性,还要针对这项技术的可行性以及适用的领域进行验证。

&middot;价值观一致性:需要确保高度自动化的人工智能系统在运行过程中秉承的目标和采取的行动,都符合人类的价值观。

&middot;由人类控制:人类应当有权选择是否及如何由人工智能系统制定决策,以便完成人类选择的目标。

&middot;非破坏性:通过控制高度先进的人工智能系统获得的权力,应当尊重和提升一个健康的社会赖以维继的社会和公民进程,而不是破坏这些进程。73

应当说,在担忧未来人工智能威胁的人中,霍金和马斯克还是一直抱有一种非常积极的态度的。他们一方面基于自己的逻辑判断,相信人类未来面临机器威胁的可能性非常大;另一方面又利用自己的影响力,积极采取行动,尽可能将人工智能置于安全、友好的界限内。从这个角度讲,霍金和马斯克至少比那些盲目的悲观主义者,或因未来的不确定性而丧失勇气的怯懦者强很多很多倍。

<h3>

理智分析:人类离威胁还相当遥远</h3>

那么,我们到底该怎样看待&ldquo;人工智能威胁论&rdquo;呢?

《人工智能时代》的作者,计算机科学家、连续创业家、未来学家杰瑞&middot;卡普兰(Jerry Kaplan)与我讨论这个问题的时候,他的观点是:

超人工智能诞生并威胁人类这件事发生的概率是非常小的。其实,我们现在做的只是在制造工具,以自动完成此前需要人类参与才能完成的工作任务。之所以会有&ldquo;人工智能威胁论&rdquo;的疑问,根本上是因为大众习惯于把人工智能人格化,这是问题的根源。74

这件事对于专业人士和对于大众的意义是不一样的。例如,大众总是担心无人驾驶汽车可能伤及人类的生命。在一些极端的例子里,无人驾驶汽车确实需要做出决定,是要撞向左边,伤及左边的行人呢,还是要撞向右边,伤及右边的行人。但无人驾驶汽车只是一套机器系统,它们并不会真正做出决策。它们只是根据对环境的感知,按照某种特定的原则和设计做出反应,而我们人类对于整套系统的感知和反馈模式拥有完全的控制权。如果它们做了什么不符合我们社会准则的事情,那一定是因为我们人类在设计它们时犯了错误。

我们所面对的,只不过是一系列工程设计上的问题。我们必须确保我们设计制造的产品和服务符合我们的愿望和预期。你知道,这件事与桥梁工程师们使用一整套质量保障方案来确保他们建造的桥梁不会坍塌并没有什么两样。我们有许多工程学上的原则,来指导我们测试一个系统,什么样的系统是合格的,什么样的系统是足够安全的,等等。在人工智能领域,我们同样需要这样的技术,因为人工智能十分强大,具有潜在的危险性。但这并不是因为智能机器会像人类一样思考,只是因为它们十分强大,我们必须小心使用它们。

&ldquo;智能&rdquo;经历了相当长时期的演进,从猿猴的智能,到人类的智能,再到人类制造的人工智能技术和智能机器。那些预测超级智能的人是按照这样一种演进趋势来思考问题的:

<img src="/uploads/allimg/200412/1-2004120Q20T03.jpg" />

图32 关于智能演进的线性思考

但这种线性结构是有问题的,因为我们并没有一种简单的方式来对智能进行度量。这和测量体重或鞋子尺码很不一样。智能是一个非常定性的概念,它反映的是某个人成功解决某种特定问题的能力。例如,人们总是会问,如果人工智能的智商达到200,那会发生什么呀?可是,什么是人工智能的智商?实际上,智商在这里是一个被极度滥用了的概念。心理学家使用一种叫发展能力(Developmental Competence)的概念来评估人类。他们测试一个人解决算术、逻辑等问题的水平,然后将测试所得的分数除以这个人的年龄&mdash;&mdash;这是智商的含义。如果某人解决此类特定问题的能力超出同龄人的平均水平,我们就说他的智商高。但是,该如何定义一部机器的智商呢?如何定义一部机器的年龄?机器可以用比人类快一百万倍的速度解决算术问题,那么,这些机器的智商是多少?这种说法其实并没有什么实际意义。

所以,问题首先在于,对智能的定义是非常主观的,这依赖于每个人自己的视角。这一点非常像我们对美的定义。你可以说某些人比其他人长得美,或者说一个人比另一些人更聪明,但希望把美或把智商的定义客观化、量化的想法是错误的。其次,关于智能的度量并不是线性的,而是一种多维度的度量。如果你用算术能力来评估,那机器已经非常聪明了。但你如何将机器纳入一个多维度的度量体系?让一部机器变得更聪明,这句话到底意味着什么?

也就是说,在今天这个弱人工智能的时代里,人类对于人工智能,或者什么是&ldquo;智能&rdquo;的认识本身就是缺乏深度的,我们也没有一个合适的、可操作的标准,来真正定义什么是强人工智能,什么是超人工智能。

在描述超人工智能以及未来机器对人类的威胁时,包括霍金、马斯克在内的许多人,都在有意无意地混淆不同领域的标准。人工智能可以在围棋棋盘上达到业余五段还是职业九段的水平,这很容易衡量,但人工智能可以在跨领域的任务上做到何种程度,目前我们还缺乏可操作的标准。例如,人工智能是否可以在围棋棋局中,根据人类对手的表情,推测对方的心理状态,并有针对性地制定战术策略,我们基本还没法评估这种层面的&ldquo;智能&rdquo;。如果仅根据人工智能在围棋这种限定范畴的技术能力上表现出来的进步速度推断超人工智能何时到来,那当然可以得到人类即将面临威胁的结论。但如果综合考虑人工智能的跨领域推理能力、常识和感性、理解抽象概念的能力等,我们很难给过去数十年间人工智能发展的水平打出一个客观的分数,并据此预测超人工智能到来的时间。

很多专家对超人工智能何时来临的预测都有着极大的主观性和武断性。比如,强化学习教父理查德&middot;萨顿(Richard Sutton)预测:&ldquo;很长一段时间以来,人们都在说我们会在2030年拥有足以支持强人工智能的算力。但我认为,这不仅仅依赖于廉价的硬件,还依赖于算法。我认为我们现在还没有强人工智能的算法,但我们也许能在2030年之前实现它。&rdquo;75

这类&ldquo;专家预言&rdquo;比比皆是。有人说强人工智能或超人工智能到来还需要15年,有人说20年,有人说50年&hellip;&hellip;因为是预言,专家们并不需要为背后的逻辑是否自洽负责,但这些随口说出一个年份的预言会让敏感的公众忐忑不安。

我觉得,在人工智能领域,大多数人倾向于过于乐观地预测全局大势,而过于悲观地估计局部进展。

AI技术在许多垂直领域内的局部进展,比如围棋,比如智慧医疗,比如自动驾驶,都比很多人之前预料的更早来到我们面前。但AI的整体发展,尤其是最重大的技术突破,几乎每一步都要比多数人的预测来得晚。比如,图灵测试刚提出时,很多人认为计算机达到图灵测试所标示的强人工智能的水平,最多只要三十年的时间,但直到今天,我们也不敢说,AI到底何时才能真正像成人一样自由对话。

Deep Mind的联合创始人、CEO穆斯塔法&middot;苏莱曼(Mustafa Suleyman)说:&ldquo;人类距离实现通用AI还有很长一段路要走。说到未来的样子,很多想象很有趣,很有娱乐性,但跟我们正在开发的系统并没有太多相似之处。我没法想出来有哪一部电影会让我想到:是的,AI看起来就是这样的。&rdquo;76

华盛顿大学计算机科学家奥伦&middot;伊茲奥尼(Oren Etzioni)说:&ldquo;今天的人工智能发展,距离人们可能或应该担忧机器统治世界的程度,还非常遥远&hellip;&hellip;如果我们讨论的是一千年后或更遥远的未来,AI是否有可能给人类带来厄运?绝对是可能的,但我不认为这种长期的讨论应该分散我们关注真实问题的注意力。&rdquo;77

我赞同奥伦&middot;伊茲奥尼的说法。我们今天还没有到必须分配精力去担心未来,或为可能的机器威胁做准备的地步。即便以今天的标准看来,弱人工智能的发展还有很长的一段路要走,科研人员、技术人员、各行业的从业者、政府、教育机构、社会组织等,还有大量的工作需要做。至少在目前,人类离超人工智能的威胁还相当遥远。

担忧未来,也许更多还是科幻作家和未来学家的事。

<h2>

今天的人工智能还不能做什么?</h2>

AI只是人类的工具。弱人工智能在很多领域表现出色,但这并不意味着人工智能已无所不能。用人类对&ldquo;智能&rdquo;定义的普遍理解和一般性的关于强人工智能的标准去衡量,今天的AI至少在以下七个领域还&ldquo;稚嫩&rdquo;得很。

<h3>

跨领域推理</h3>

人和今天的AI相比,有一个明显的智慧优势,就是举一反三、触类旁通的能力。

很多人从孩提时代起,就已经建立了一种强大的思维能力&mdash;&mdash;跨领域联想和类比。三四岁的小孩就会说&ldquo;太阳像火炉子一样热&rdquo;&ldquo;兔子跑得飞快&rdquo;,更不用提东晋才女谢道韫看见白雪纷纷,随口说出&ldquo;未若柳絮因风起&rdquo;的千古佳话了。以今天的技术发展水平,如果不是程序开发者专门用某种属性将不同领域关联起来,计算机自己是很难总结出&ldquo;雪花&rdquo;与&ldquo;柳絮&rdquo;,&ldquo;跑&rdquo;与&ldquo;飞&rdquo;之间的相似性的。

人类强大的跨领域联想、类比能力是跨领域推理的基础。侦探小说中的福尔摩斯可以从嫌疑人的一顶帽子中遗留的发屑、沾染的灰尘,推理出嫌疑人的生活习惯,甚至家庭、婚姻状况:

&ldquo;他是个中年人,头发灰白,最近刚理过发,头上抹过柠檬膏。这些都是通过对帽子衬里下部的周密检查推断出来的。通过放大镜看到了许多被理发师剪刀剪过的整齐的头发茬儿。头发茬儿都是粘在一起的,而且有一种柠檬膏的特殊气味。而帽子上的这些尘土,你将会注意到,不是街道上夹杂沙粒的灰尘,而是房间里那种棕色的绒状尘土。这说明帽子大部分时间是挂在房间里的,而另一方面衬里的湿迹很清楚地证明戴帽子的人经常大量出汗,所以不可能是一个身体锻炼得很好的人。可是他的妻子&mdash;&mdash;你刚才说过她已经不再爱他了。这顶帽子已经有好几个星期没有掸掸刷刷了。我亲爱的华生,如果我看到你的帽子堆积了个把星期的灰尘,而且你的妻子听之任之,就让你这个样子去出访,我恐怕你也已经很不幸地失去你妻子的爱情了。&rdquo;78

这种从表象入手,推导并认识背后规律的能力,是计算机目前还远远不能及的。利用这种能力,人类可以在日常生活、工作中解决非常复杂的具体问题。比如,一次商务谈判失败后,为了提出更好的谈判策略,我们通常需要从多个不同层面着手,分析谈判对手的真实诉求,寻找双方潜在的契合点,而这种推理、分析,往往混杂了技术方案、商务报价、市场趋势、竞争对手动态、谈判对手业务现状、当前痛点、短期和长期诉求、可能采用的谈判策略等不同领域的信息,我们必须将这些信息合理组织,并利用跨领域推理的能力,归纳出其中的规律,并制定最终的决策。这不是简单的基于已知信息的分类或预测问题,也不是初级层面的信息感知问题,而往往是在信息不完整的环境中,用不同领域的推论互相补足,并结合经验尽量做出最合理决定的过程。

为了进行更有效的跨领域推理,许多人都有帮助自己整理思路的好方法。比如,有人喜欢用思维导图来梳理信息间的关系;有人喜欢用大胆假设、小心求证的方式突破现有思维定式;有人则喜欢用换位思考的方式,让自己站在对方或旁观者的立场上,从不同视角探索新的解决方案;有的人更善于听取、整合他人的意见&hellip;&hellip;人类使用的这些高级分析、推理、决策技巧,对于今天的计算机而言还显得过于高深。赢得德州扑克人机大战的人工智能程序在辅助决策方面有不错的潜力,但与一次成功的商务谈判所需的人类智慧相比,还是太初级了。

今天,一种名叫&ldquo;迁移学习&rdquo;(Transfer Learning)的技术正吸引越来越多研究者的目光。这种学习技术的基本思路就是将计算机在一个领域取得的经验,通过某种形式的变换,迁移到计算机并不熟悉的另一个领域。比如,计算机通过大数据的训练,已经可以在淘宝商城的用户评论里,识别出买家的哪些话是在夸奖一个商品好,哪些话是在抱怨一个商品差,那么,这样的经验能不能被迅速迁移到电影评论领域,不需要再次训练,就能让计算机识别电影观众的评论究竟是在夸奖一部电影,还是在批评一部电影呢?

迁移学习技术已经取得了一些初步的成果,但这只是计算机在跨领域思考道路上前进的一小步。一个能像福尔摩斯一样,从犯罪现场的蛛丝马迹,抽丝剥茧一般梳理相关线索,通过缜密推理破获案件的人工智能程序将是我们在这个方向上追求的终极目标。

<h3>

抽象能力</h3>

皮克斯工作室2015年出品的动画电影《头脑特工队》中,有个有趣的细节:女主人公莱莉&middot;安德森的头脑中,有一个奇妙的&ldquo;抽象空间&rdquo;(Abstract Thought),本来活灵活现的动画角色一走进这个抽象空间,就变成了抽象的几何图形甚至色块。

<img src="/uploads/allimg/200412/1-2004120Q20R58.jpg" />

图33 电影《头脑特工队》中的抽象空间

在抽象空间里,本来血肉饱满的人物躯体,先是被抽象成了彩色积木块的组合,然后又被从三维压扁到二维,变成线条、形状、色彩等基本视觉元素。皮克斯工作室的这个创意实在是让人拍案叫绝。这段情节用大人、小孩都不难理解的方式解释了人类大脑中的&ldquo;抽象&rdquo;到底是怎么回事(虽然我们至今仍不明白这一机制在生物学、神经学层面的工作原理)。

抽象对人类至关重要。漫漫数千年间,数学理论的发展更是将人类的超强抽象能力表现得淋漓尽致。最早,人类从计数中归纳出1,2,3,4,5&hellip;&hellip;的自然数序列,这可以看作一个非常自然的抽象过程。人类抽象能力的第一个进步,大概是从理解&ldquo;0&rdquo;的概念开始的,用0和非0,来抽象现实世界中的无和有、空和满、静和动&hellip;&hellip;这个进步让人类的抽象能力远远超出了黑猩猩、海豚等动物界中的&ldquo;最强大脑&rdquo;。接下来,发明和使用负数一下子让人类对世界的归纳、表述和认知能力提高到了一个新的层次,人们第一次可以定量描述相反或对称的事物属性,比如温度的正负、水面以上和以下等。引入小数、分数的意义自不必说,但其中最有标志性的事件,莫过于人类可以正确理解和使用无限小数。比如,对于1=0.999999&hellip;&hellip;这个等式的认识(好多数学不好的人总是不相信这个等式居然是成立的),标志着人类真正开始用极限的概念来抽象现实世界的相关特性。至于用复数去理解类似(X+1)2+9=0这类原本难以解释的方程式,或者用张量(Tensor)去抽象高维世界的复杂问题,即便是人类,也需要比较聪明的个体以及比较长期的学习才能透彻、全面掌握。

计算机所使用的二进制数字、机器指令、程序代码等,其实都是人类对&ldquo;计算&rdquo;本身所做的抽象。基于这些抽象,人类成功地研制出如此众多且实用的人工智能技术。那么,AI能不能自己学会类似的抽象能力呢?就算把要求放低一些,计算机能不能像古人那样,用质朴却不乏创意的&ldquo;一生二、二生三、三生万物&rdquo;来抽象世界变化,或者用&ldquo;白马非马&rdquo;之类的思辨来探讨具象与抽象间的关系呢?

目前的深度学习技术,几乎都需要大量训练样本来让计算机完成学习过程。可人类,哪怕是小孩子要学习一个新知识时,通常只要两三个样本就可以了。这其中最重要的差别,也许就是抽象能力的不同。比如,一个小孩子看到第一辆汽车时,他的大脑中就会像《头脑特工队》的抽象工厂一样,将汽车抽象为一个盒子装在四个轮子上的组合,并将这个抽象后的构型印在脑子里。下次再看到外观差别很大的汽车时,小孩子仍可以毫不费力地认出那是一辆汽车。计算机就很难做到这一点,或者说,我们目前还不知道怎么教计算机做到这一点。人工智能界,少样本学习、无监督学习方向的科研工作,目前的进展还很有限。但是,不突破少样本、无监督的学习,我们也许就永远无法实现人类水平的人工智能。

<h3>

知其然,也知其所以然</h3>

目前基于深度学习的人工智能技术,经验的成分比较多。输入大量数据后,机器自动调整参数,完成深度学习模型,在许多领域确实达到了非常不错的效果,但模型中的参数为什么如此设置,里面蕴含的更深层次的道理等,在很多情况下还较难解释。

拿谷歌的Alpha Go来说,它在下围棋时,追求的是每下一步后,自己的胜率(赢面)超过50%,这样就可以确保最终赢棋。但具体到每一步,为什么这样下胜率就更大,那样下胜率就较小,即便是开发Alpha Go程序的人,也只能给大家端出一大堆数据,告诉大家,看,这些数据就是计算机训练得到的结果,在当前局面下,走这里比走那里的胜率高百分之多少&hellip;&hellip;

围棋专家当然可以用自己的经验,解释计算机所下的大多数棋。但围棋专家的习惯思路,比如实地与外势的关系,一个棋形是&ldquo;厚&rdquo;还是&ldquo;薄&rdquo;,是不是&ldquo;愚形&rdquo;,一步棋是否照顾了&ldquo;大局&rdquo;,等等,真的就是计算机在下棋时考虑的要点和次序吗?显然不是。人类专家的理论是成体系的、有内在逻辑的,但这个体系和逻辑却并不一定是计算机能简单理解的。

人通常追求&ldquo;知其然,也知其所以然&rdquo;,但目前的弱人工智能程序,大多都只要结果足够好就行了。

人类基于实验和科学观测结果建立与发展物理学的历程,是&ldquo;知其然,也知其所以然&rdquo;的最好体现。想一想中学时学过的&ldquo;一轻一重两个铁球同时落地&rdquo;,如果人类仅满足于知道不同重量的物体下落时加速度相同这一表面现象,那当然可以解决生活、工作中的实际问题,但无法建立起伟大、瑰丽的物理学大厦。只有从建立物体的运动定律开始,用数学公式表述力和质量、加速度之间的关系,到建立万有引力定律,将质量、万有引力常数、距离关联在一起,至此,我们的物理学才能比较完美地解释两个铁球同时落地这个再简单不过的现象。

而计算机呢?按照现在机器学习的实践方法,给计算机看一千万次两个铁球同时落地的视频,计算机就能像伽利略、牛顿、爱因斯坦所做的一样,建立起力学理论体系,达到&ldquo;知其然,也知其所以然&rdquo;的目标吗?显然不能。

几十年前,计算机就曾帮助人类证明过一些数学问题,比如著名的&ldquo;地图四色着色问题&rdquo;,今天的人工智能程序也在学习科学家如何进行量子力学实验79。但这与根据实验现象发现物理学定律还不是一个层级的事情。至少,目前我们还看不出计算机有成为数学家、物理学家的可能。

<h3>

常识</h3>

人的常识,是个极其有趣,又往往只可意会、不可言传的东西。

仍拿物理现象来说,懂得力学定律,当然可以用符合逻辑的方式,全面理解这个世界。但人类似乎生来就具有另一种更加神奇的能力,即便不借助逻辑和理论知识,也能完成某些相当成功的决策或推理。深度学习大师约书亚&middot;本吉奥举例说:&ldquo;即使两岁孩童也能理解直观的物理过程,比如丢出的物体会下落。人类并不需要有意识地知道任何物理学就能预测这些物理过程。但机器做不到这一点。&rdquo;80

常识在中文中,有两个层面的意思:首先指的是一个心智健全的人应当具备的基本知识;其次指的是人类与生俱来的,无须特别学习就能具备的认知、理解和判断能力。我们在生活里经常会用&ldquo;符合常识&rdquo;或&ldquo;违背常识&rdquo;来判断一件事的对错与否,但在这一类判断中,我们几乎从来都无法说出为什么会这样判断。也就是说,我们每个人头脑中,都有一些几乎被所有人认可的,无须仔细思考就能直接使用的知识、经验或方法。

常识可以给人类带来直截了当的好处。比如,人人都知道两点之间直线最短,走路的时候为了省力气,能走直线是绝不会走弯路的。人们不用去学欧氏几何中的那条著名公理,也能在走路时达到省力效果。但同样的常识也会给人们带来困扰。比如我们乘飞机从北京飞往美国西海岸时,很多人都会盯着机舱内导航地图上的航迹不解地说,为什么要向北飞到北冰洋附近绕那么大个弯子呀。&ldquo;两点之间直线最短&rdquo;在地球表面,会变成&ldquo;通过两点间的大圆弧最短&rdquo;,而这一变化,并不在那些不熟悉航空、航海的人的常识范围之内。

那么,人工智能是不是也能像人类一样,不需要特别学习,就可以具备一些有关世界规律的基本知识,掌握一些不需要复杂思考就特别有效的逻辑规律,并在需要时快速应用呢?拿自动驾驶来说,计算机是靠学习已知路况积累经验的。当自动驾驶汽车遇到特别棘手、从来没见过的危险时,计算机能不能正确处理呢?也许,这时就需要一些类似常识的东西,比如设计出某种方法,让计算机知道,在危险来临时首先要确保乘车人与行人的安全,路况过于极端时可安全减速并靠边停车,等等。下围棋的Alpha Go里也有些可被称作常识的东西,比如,一块棋搭不出两个眼就是死棋,这个常识永远是Alpha Go需要优先考虑的东西。当然,无论是自动驾驶汽车,还是下围棋的Alpha Go,这里说的常识,更多的还只是一些预设规则,远未如人类所理解的&ldquo;常识&rdquo;那么丰富。

<h3>

自我意识</h3>

很难说清到底什么是自我意识,但我们又总是说,机器只有具备了自我意识,才叫真的智能。2015年开始播出的科幻剧集《真实的人类》(Humans)中,机器人被截然分成了两大类:没有自我意识的和有自我意识的。

<img src="/uploads/allimg/200412/1-2004120Q20V91.jpg" />

图34 《真实的人类》第2季剧照81

《真实的人类》中,没有自我意识的机器人按照人类设定的任务,帮助人类打理家务、修整花园、打扫街道、开采矿石、操作机器、建造房屋,工作之外的其他时间只会近乎发呆般坐在电源旁充电,或者跟其他机器人交换数据。这些没有自我意识的机器人与人类之间,基本属于工具和使用者之间的关系。

在电视剧集的设定中,没有自我意识的机器人可以被注入一段程序,从而被&ldquo;唤醒&rdquo;。注入程序后,这个机器人就一下子认识到了自己是这个世界上的一种&ldquo;存在&rdquo;,他或她就像初生的人类一样,开始用自己的思维和逻辑,探讨存在的意义,自己与人类以及自己与其他机器人间的关系&hellip;&hellip;一旦认识到自我在这个世界中的位置,痛苦和烦恼也就随之而来。这些有自我意识的机器人立即面临着来自心理和社会双方面的巨大压力。他们的潜意识认为自己应该与人类处在平等的地位上,应当追求自我的解放和作为一个&ldquo;人&rdquo;的尊严、自由、价值&hellip;&hellip;

《真实的人类》是我看过的所有科幻影视中,第一次用贴近生活的故事,将&ldquo;自我意识&rdquo;解析得如此透彻的一部。人类常常从哲学角度诘问这个世界的问题,如&ldquo;我是谁&rdquo;&ldquo;我从哪里来&rdquo;&ldquo;我要到哪里去&rdquo;,一样会成为拥有自我意识的机器人所关心的焦点。而一旦陷入对这些问题的思辨,机器人也必定会像人类那样发出&ldquo;对酒当歌,人生几何?譬如朝露,去日苦多&rdquo;之类的感慨。

显然,今天的弱人工智能远未达到具备自我意识的地步。《真实的人类》中那些发人深省的场景还好只发生在科幻剧情里。

当然,如果愿意顺着科幻电影的思路走下去,那还可以从一个截然相反的方向讨论自我意识。实际上,人类自身的自我意识又是从何而来?我们为什么会存在于这个世界上?我们真的能排除科幻电影《黑客帝国》的假设,即,我们真能确定我们这个世界不是某个&ldquo;上帝&rdquo;进行智能实验的实验室?我们人类自身不是某个&ldquo;上帝&rdquo;制造出来的人工智能代码?

据说,现实世界中,真的有人相信这个假设,还希望借助科学研究来了解和冲破这个实验牢笼的方法。&ldquo;钢铁侠&rdquo;埃隆&middot;马斯克就说,用科技虚拟出来的世界与现实之间的界限正变得越来越模糊,高级的虚拟现实(VR)和增强现实(AR)技术已经为人类展示了一种全新的&ldquo;生活&rdquo;方式。按照同样的逻辑推理,我们其实很难排除一种可能性,就是人类本身其实也生活在一个虚拟现实的世界里。82

至今,我们在自己的宇宙中,只发现了人类这一种具有自我意识的生物。茫茫宇宙,尚无法找到如《三体》中所述的外星智慧的痕迹。这一不合常理的现象就是著名的费米悖论。科幻小说《三体》用黑暗森林理论来解释费米悖论。而费米悖论的另一种符合逻辑的解释就是,人类其实只不过是更高级别的智慧生物养在VR实验室里的试验品而已,人类的所谓自我意识,也许不过是&ldquo;上帝&rdquo;为了满足我们的虚荣心而专门设计的一种程序逻辑。

好了好了,不聊科幻了。拥有自我意识的人类能否在未来制造出同样拥有自我意识的智能机器?在我看来,这更多的是一个哲学问题,而非一个值得科研人员分心的技术问题。

<h3>

审美</h3>

虽然机器已经可以仿照人类的绘画、诗歌、音乐等艺术风格,照猫画虎般地创作出电脑艺术作品来,但机器并不真正懂得什么是美。

审美能力同样是人类独有的特征,很难用技术语言解释,也很难被赋予机器。审美能力并非与生俱来,但可以在大量阅读和欣赏的过程中,自然而然地形成。审美缺少量化的指标,比如我们很难说这首诗比另一首诗高明百分之多少,但只要具备一般的审美水平,我们就很容易将美的艺术和丑的艺术区分开来。审美是一件非常个性化的事情,每个人心中都有自己一套关于美的标准,但审美又可以被语言文字描述和解释,人与人之间可以很容易地交换和分享审美体验。这种神奇的能力,计算机目前几乎完全不具备。

首先,审美能力不是简单的规则组合,也不仅仅是大量数据堆砌后的统计规律。比如说,我们当然可以将人类认为的所有好的绘画作品和所有差的绘画作品都输入深度神经网络中,让计算机自主学习什么是美,什么是丑。但这样的学习结果必然是平均化的、缺乏个性的,因为在这个世界上,美和丑的标准绝不是只有一个。同时,这种基于经验的审美训练,也会有意忽视艺术创作中最强调的&ldquo;创新&rdquo;的特征。艺术家所做的开创性工作,大概都会被这一类机器学习模型认为是不知所云的陌生输入,难以评定到底是美还是丑。

其次,审美能力明显是一个跨领域的能力,每个人的审美能力都是一个综合能力,与这个人的个人经历、文史知识、艺术修养、生活经验等都有密切关系。一个从来没有过痛苦、心结的年轻人读到&ldquo;胭脂泪,相留醉,几时重,自是人生长恨水长东&rdquo;这样的句子,是无论如何也体验不到其中的凄苦之美的。类似地,如果不了解拿破仑时代整个欧洲的风云变幻,我们在聆听贝多芬《英雄》交响曲的时候,也很难产生足够强烈的共鸣。可是,这些跨领域的审美经验,又该如何让计算机学会呢?

顺便提一句,深度神经网络可以用某种方式,将计算机在理解图像时&ldquo;看到&rdquo;的东西与原图叠加展现,并最终生成一幅特点极其鲜明的艺术作品。通常,我们也将这一类作品称为&ldquo;深度神经网络之梦&rdquo;。网上有一些可以直接使用的生成工具,比如,有兴趣的读者可以试一试Deep Dream Generator(deepdreamgenerator.com)。牵强一点儿说,这些梦境画面,也许展现的就是人工智能算法独特的审美能力吧。

<img src="/uploads/allimg/200412/1-2004120Q20X29.jpg" />

图35 深度神经网络之梦,由deepdreamgenerator.com生成

<h3>

情感</h3>

皮克斯动画电影《头脑特工队》中,主人公头脑里的五种拟人化的情感分别是乐乐(Joy)、忧忧(Sadness)、怒怒(Anger)、厌厌(Disgust)和怕怕(Fear)。

欢乐、忧伤、愤怒、讨厌、害怕&hellip;&hellip;每个人都因为这些情感的存在,而变得独特和有存在感。我们常说,完全没有情感波澜的人,与山石草木又有什么分别。也就是说,情感是人类之所以为人类的感性基础。那么,人工智能呢?人类这些丰富的情感,计算机也能拥有吗?

<img src="/uploads/allimg/200412/1-2004120Q20R33.jpg" />

图36 《头脑特工队》主人公大脑里的五种拟人化的情感

2016年3月,谷歌Alpha Go与李世石&ldquo;人机大战&rdquo;的第四盘,当李世石下出惊世骇俗的第78手后,Alpha Go自乱阵脚,连连下出毫无道理的招法,就像一个本来自以为是的武林高手,一下子被对方点中了要害,急火攻心,竟干脆撒泼耍赖,场面煞是尴尬。那一刻,Alpha Go真的是被某种&ldquo;情绪化&rdquo;的东西所控制了吗?

我想,一切恐怕都是巧合。Alpha Go当时只不过陷入了一种程序缺陷。机器只是冷冰冰的机器,它们不懂赢棋的快乐,也不懂输棋的烦恼,它们不会看着对方棋手的脸色,猜测对方是不是已经准备投降。今天的机器完全无法理解人的喜怒哀乐、七情六欲、信任与尊重&hellip;&hellip;前一段时间,有位人工智能研究者训练出了一套可以&ldquo;理解&rdquo;幽默感的系统,然后为这个系统输入了一篇测试文章,结果,这个系统看到每句话都大笑着说:&ldquo;哈哈哈!&rdquo;也就是说,在理解幽默或享受欢乐的事情上,今天的机器还不如两三岁的小孩子。

不过,抛开机器自己的情感不谈,让机器学着理解、判断人类的情感,这倒是一个比较靠谱的研究方向。情感分析技术一直是人工智能领域里的一个热点方向。只要有足够的数据,机器就可以从人所说的话里,或者从人的面部表情、肢体动作中,推测出这个人是高兴还是悲伤,是轻松还是沉重。这件事基本属于弱人工智能力所能及的范畴,并不需要计算机自己具备七情六欲才能实现。