<h2>
在历史的重复中变化</h2>
当我们谈论数据的时候我们在谈什么?
在大部分人的日常印象中,数据这个词代表的可能是每月的水、电、煤账单上的数字,或者是股票K线图上的红绿指数,还有可能是电脑文件里那一大堆看不懂的源代码。
人工智能眼中的数据含义远比这些广泛。数据的存在形式随着人类文明的发展不断改变,从最初的声音、文字、图画和数字,到电子时代的每一张图像、每一段语音、每一个视频,再到如今互联网时代人类的每一次鼠标点击、用手机时的每一次手指滑动,乃至每一下心跳和呼吸,甚至还包括经济生产中的一切人机动作、轨迹,皆已融入数据流。
不管是浩瀚永恒的引力波,还是复杂细微的DNA,今天的人类已经能够将各种或宏大或微小的事物转化为数据记录,变成我们生活的一部分。数据已经浸染我们生活的每一个细节,就好比生物学家认为人体组织的一半是由微生物组成的,在数字时代,我们生活的一半已然是数据。
历史总是螺旋式前进的。让我们回溯过去,远在人工智能诞生之前,人类在漫长的岁月中也践行着对于数据的发掘、计算和利用。
五千多年前,古埃及人就通过观测记录星象的位置总结出规律:每年当天狼星清晨出现在东方地平线上的时候,尼罗河便开始泛滥。他们照此制订农业耕作的计划,并且将这个周期进行总结,确定了一年365天的太阳历。遥远的天狼星与地球并无任何因果关系,只是出现在那个位置的时候,正好地球运转到一定的节气——这正是大数据时代的相关性计算的前身。
四千多年前,在今天英国的土地上出现了巨石阵——每块重达50吨的大石头组成了一个圆阵。这是一块原始钟表,夏至的时候,它的主轴线、通往石柱的古道和早晨的第一缕阳光就会处在同一条直线上;往相反的方向,冬至日的最后一缕阳光也会穿过石门。古人用笨重的石头仪表点燃了数据测量的曙光。与中国的日晷一样,这便是最早的数据可视化技术。
<img src="/uploads/allimg/200412/1-2004120Q235228.jpg" />
图3-1 巨石阵
资料来源:https://baike.baidu.com/pic/%E5%B7%A8%E7%9F%B3%E9%98%B5/1179755/0/6d81800a19d8bc3ed2257b32808ba61ea8d3451c?fr=lemma&ct=single#aid=17270777&pic=ac4bd11373f08202f436987e4efbfbedaa641bce
两千多年前,托勒密研究天地运动得出三大定律,为天文学打下基础。他的方法很有趣,一言以蔽之,是错误的方法里蕴藏着正确的思路。原本他误以为天体运动的轨迹是圆形,而实际上天体以椭圆轨迹运行。为了强行用“圆”函数来表达天体的实际运动曲线,他采用多个圆形的嵌套运动模拟出天体运动。他模拟天象使用的嵌套圆圈多达40个,相当于用多个圆运动函数来拟合成一个总体函数。这已经有了最早的拟合函数思想。
什么是拟合函数?当数据很多时,我们可以把数据想象为一个坐标系中分布的很多点。怎样寻找一个函数,使其曲线能够穿越尽可能多的点呢?如果这些点分布很规律,比如呈线性分布,就可以用线性方程描述。
<img src="/uploads/allimg/200412/1-2004120Q236293.jpg" />
图3-2 用线性方程表示函数
注:左图中分布的点可以用右图中y=ax+b形式的线性函数来近似表达。
如果分布点形成一个抛物线形状,那么函数也很容易得到,就是X2=2py的形式。但是如果这些数据点分布看上去很不规则时就很难找到一个单一函数。现代人想到用多个函数叠加的方法来模拟出一个总体的函数。调节每一个函数的权重,从而能够让叠加函数曲线尽可能多地穿过这些点。托勒密记录了大量天体运动的数据,然后尝试用叠加多个圆函数的方法模拟出椭圆轨迹的函数,以便把他记录的数据都包括进来。拟合函数方法适合从大量离散的数据记录中找寻规律,而这正是今天人工智能的基础,机器学习的基本数学方法。
由此可见,今天的很多基本数学方法古人已有,只是囿于能力无法尽情应用。
今天的人类可以用数字测绘来还原历史。即便在“我的世界”这样一款游戏中,计算机已经可以计算出每一块砖瓦的角度、长度,将几千年前的古城墙以完美的三维图像重现。那一刻,你会觉得所有古埃及、古希腊、古中国的壮美历史又重新与我们连接。但比起那宫殿中早已褪色的金冠银带,古人使用数据的智慧或许才是人类最宝贵的传承。
数据文明在进步,而大多数人还处在数据的懵懂之中。在日常生活中,数据的概念对于我们既亲近又陌生。我们亲近它,因为每个人从小就会接触加减乘除这样最基本的数据和算法。步入社会后不管从事什么职业,我们这一生也免不了和各类文件、报表或者账单打交道。但与此同时,当面对高科技产品中各种关于内存、分辨率等时髦又复杂的数据时,我们又越发觉得不了解它们甚至没意识到它们的存在。随着大数据、机器算法和人工智能的理念相继到来,这种陌生感愈发加深。
那么数据生活距离我们遥远了吗?正相反,在新的技术条件下,数据与我们日常生活的联系从未如此紧密过。我们的祖先很久以前就学会有条理地储存数据,但是从没像今天的我们一样如此活跃、具体地记录着自己与世界。
从最初的计算器、摄像头,到家用计算机、智能手机,再到大数据和人工智能,我们不断升级采集和利用数据的方式。而现在,从一辆车的每日碳排放量统计到全球气温的监测,从对每个人在网上发言喜好的分析到对总统选举时投票趋势的预测,从预测一只股票的涨跌幅度到观察评估整个经济系统的发展,我们都可以做到。数据将人与人、人与世界连接起来,构成一张繁密的网络,每个人都在影响世界,而每个人也在被他人影响。这种从微观到宏观的辩证关系就如同在全人类身上发生的量子力学现象,其中孕育着解答无数问题的真理。传统的统计方法已经无法处理这种相互影响的数据。怎么办?答案是让机器自己来处理数据,从数据里习得知识。这便是当代人工智能的本质。
早在60年前,人工智能就已经被科学家当作一门严肃科学来研究。即便普通老百姓都对人工智能兴趣盎然,然而人工智能却在“二战”后人类科技高速发展的几十年间鲜有突破。直到今天,我们才忽然发现各种人工智能的概念如雨后春笋般冒出来,以大数据、AlphaGo、百度无人车等新面貌闯入我们的生活。
如果把人工智能的技术比作一颗早产的心脏,那么它曾经患有两个先天不足:一是在互联网爆发之前,研究人工智能所能调用的数据量太少,这是“供血不足”;二是硬件上的不足导致缺乏解决复杂问题的计算能力,这是“心力不足”。数据如同血液,硬件如同血管,直到互联网应用突飞猛进,计算机的计算能力平均1年翻一番且计算架构出现革命性变化,这两个问题才迎刃而解。奔涌的数据血液进入物理身体的每一个角落,图像识别、语音识别、自然语言处理……睁开了眼睛、竖起了耳朵、张开了嘴巴,机器之心“活”了!
<h2>
数据书写生活史</h2>
数据已经深深“浸入”我们的生活。计算机、智能手机、各种智能家居用品,贴身收集着我们的一言一行,通过计算建模越来越了解我们,使得看新闻、运动健身、吃饭、听歌、出行等这些最简单的日常活动都成为一次次隆重的数据盛典。
一部智能手机一天之内就可以为他的主人生产1G的数据。这大概是13套《二十四史》的总容量。我们每天都在用数据书写自己浩瀚的“生活史”。
与传统意义上的数据记录定义不同,这种数据是有“生命”的。这种记录不是客观又绝对的数学测量,也不是一板一眼的历史写作。它更像是我们身体的一种自然延伸:倾听我们的声音、拓宽我们的视力、加深我们的记忆,甚至组成一个以数据形式存在的“我”。如果说智能手机已成为人类的新器官,那么数据就是这个新器官所接收到的“第六感”。而处理这种“第六感”的新大脑正是冉冉升起的人工智能。
<h2>
大数据——万物皆数</h2>
既然人类运用数据已久,而且自工业革命以来,数据经历过一次又一次的爆发,何以近年来才出现“大数据”的概念?仅仅是它所能记录和计算的数据量更多而已吗?自然数可以无限数下去,1、2、3、4,以至于无穷,但“多”是不够的,还必须具有几大特征:
第一,大数据的“大”。毋庸置疑,这个“大”相对于人类传统数据的储存方式,不是一个量级上的大小之分,而是几何量级的差距。想想百度地图上每日720亿次的定位请求,再想想互联网上每天有多少次点击、社交媒体上每天有多少文字和图片发出……各种大数据平台一天之内收集到的数据量就可以超越人类几千年来文字、图像的总和。
第二,大数据的另一个重要特点是多维度。多维度代表着大数据可以对一个事物进行多方位的描述,从而更准确。
在电影《谍影重重》里出现过一个大数据公司,能够根据互联网数据、交通数据、历史档案等各种维度的数据帮助美国中央情报局(CIA)迅速追踪和定位疑犯。现实中美国的Plantir数据公司便是如此帮助美国政府追踪本·拉登,提供反恐信息和社会危机预警。它们更常见的业务是识破金融诈骗。
以金融征信应用为例,传统金融机构在进行征信时,一般采集20个维度左右的数据,主要包括年龄、收入、学历、职业、房产车产、借贷情况等。然后综合评分来识别客户的还款能力和还款意愿,决定信贷额度。
互联网公司采用大数据方法,所获得的维度可以让传统银行吓一跳。BAT都开设了自己的金融服务,因为拥有全面且巨大的用户数据,可以查询客户的各种线上记录,比如是否有批量申请贷款等异常行为;还可以将客户信息与互联网全局信息比对,通过欺诈行为模式的比对分析其可信度;更进一步,还可以分析客户的消费行为和习惯,结合填报收入分析还款能力如何。当然,作为用户的隐私,这些数据都不会被公开,用户所能感受到的便利是征信排队时间极大地缩短了,因为大数据可以在几秒钟内就对申请者超过1万条的原始信息进行调取和审核,迅速核对数万个指标维度。
对一个陌生人进行征信就好比“盲人摸象”,传统方法是通过20个“盲人”去评估一个客户的信用“大象”,注定是有缺陷的。而大数据的多维度就如同几万人同时“摸象”,再把这几万人的反馈汇总到一起。维度越多,结论就越准确。
第三,处理非结构化数据的能力。结构化数据中最基本的数字、符号等,可以用固定的字段、长短和逻辑结构保存在数据库中,并用数据表的形式向人类展现(想一下常见的Excel表格),处理非常方便。但是互联网时代产生了大量非结构化数据,对于图片、视频、音频等内容,它们的数据量巨大却没有清晰的结构。对于图像的数据,我们只能理解为一个二维矩阵上的无数像素点。非结构化数据增长量很快,据推测将占未来10年新生数据总量的90%。而大数据技术可以通过图像识别、语音识别、自然语言分析等技术计算、分析大量非结构化数据,大大提升了数据维度。
非结构化数据的数量远超结构化数据,蕴含巨大能量,应用前景广阔。例如,在机场等公共场合的个人身份检查,过去只能根据旅客提供的身份信息这一个主要维度去判断其身份。而人脸识别、语音识别等技术应用成熟后,大数据可以直接通过摄像快速比对审核,增加对个人身份判断的维度,进行既精确又高效的安全检查。
第四,大数据是生生不息的“流”,具有时间性。它过去就不再回来,就像人无法两次踏入同一条河流。这一方面是因为数据量太巨大,无法全部存储;另一方面是大数据和人类生生不息的行动相关,瞬息万变。百度大数据实验室因此提出一个概念叫作“时空大数据”。
地图就是时空大数据之母。百度地图有一个路段拥堵预警功能。如果前方路段畅通会显示为绿色;如果拥堵则会显示成红色,提醒用户选择其他路线。这是我们与数据互动的一个简明例子。如果我们有A和B两条路线可以选择,此时A路线拥堵而B路线畅通,那么我们都会选择B路线;当越来越多的车主选择B路线,那么B路线将会变成拥堵而A路线又会畅通。此消彼长,变化万千。依靠智能手机的定位功能,百度地图可以实时更改当前的路况监测结果,精确地告诉每一个位置用户当前自己所面对的路面情况。通过数据可视化技术和各种评估手段,可以描绘一座城市的日常脉搏,比如上下班的人流数据变化,仿佛城市在吞吐呼吸。除了被记录下来的,更多数据只在当时有效。把数据全部存储下来是不可能的,那样需要的硬盘可能整座城市的地皮都堆不下,只能即时应用,用过就消失。
与时间数据博弈是富有挑战性的工作。2016年11月,百度正式接入公安部儿童失踪信息紧急发布平台,每当有儿童失踪事件发生时,百度地图和手机百度就会把失踪儿童的姓名、面貌特征、失踪时间等重要信息精准推送给失踪地点周边的用户,使用户可以第一时间参与找回失踪儿童的过程。而在失踪儿童被寻回后,百度地图和手机百度也会及时更新结案标识,让社会各界人士随时了解进展。能将信息早1秒钟提供给用户,就能给焦虑中的家庭多一分希望。
最后一点,也是最重要的,大数据的“大”表现为无尽的重复。对于语音识别来说,正因为人们重复讲述同样的语句,机器通过反复识别这些人类语音的细微差别,才能全面掌握人类语音。也正因为人们周而复始的运动,才让系统能捕捉城市运动的规律。“重复”的数学意义是“穷举”。以往人类无法通过穷举法来把握一个事情的规律,只能采用“取样”来估计,或者通过观察用简单明了的函数来代表事物规律,但大数据让穷举法这种“笨办法”变得可能了。
量变促成质变,在机器智能领域,数据量的大小和处理速度的快慢可以直接决定智能水平的高低。谷歌通过数据量提升翻译质量的故事早已不是秘密。
2005年,美国国家标准与技术研究所如往年一样举办机器翻译软件评测。有许多大学机构、大公司都从美国政府申请了研究机器翻译的科研经费,这些机构需要参加这个评测。没有获得政府资助的团队或者公司也可以自愿加入,谷歌就是后者。参与评测的还包括IBM、德国亚琛工学院等多家机器翻译界老牌公司,个个实力雄厚,在机器翻译领域深耕多年,只有谷歌是初出茅庐。
然而评测结果却让人大跌眼镜:谷歌取得了第一名,并且得分远远高于其他团队。在汉译英这方面,谷歌的表现达到了51.37%的BLEU分数,第二名和第三名的公司则仅达到34.03%和22.57%。最后,谷歌公布了自己的秘诀:用更多的数据!不只是比其他团队多一两倍,而是多上万倍的数据!因为谷歌可以通过搜索引擎收集互联网上人类给出的海量双语语料数据。同样一句汉语会有很多人给出译法,计算机会通过这种重复来统计出最常用的译法。在没有更改其他主要方法的情况下,仅仅依靠数据样本的增加就训练、改造出了超越其他机器翻译一个时代的产品。谷歌能赢,实际上就是因为“穷举”能力超过了别人。
谷歌、百度这一类互联网企业的数据优势是全方位的,除了翻译,还可以很容易地复制到其他领域,比如语音识别与图像识别。百度的“为你写诗”作为一个小游戏,同样结合了大数据与人工智能。百度主任架构师、机器翻译技术负责人何中军介绍,传统的写诗软件一般运用统计模型,根据给定的关键词生成第一句诗句,然后再生成第二句,不断重复这一过程,直到全诗生成完毕。而百度写诗的做法是这样的:用户可以输入任意词语或者句子,系统结合百度搜索引擎中的大数据对用户表达进行深度分析与联想,衍生出相关度较高的主题关键词。用户随便输入一个词或一句话,比如“西湖”,百度写诗系统通过对大量诗歌散文数据的分析,得出一首描写“西湖”的诗歌应该包含哪些主题词。对于“西湖”来说,得到的主题词可能有“断桥残雪”“烟雨”“垂柳”等。接下来利用深度神经网络技术,根据每一个主题词生成一句诗。这些主题词就相当于人类写作时经常用的提纲,根据提纲来创作可以保证全诗在意境上是统一的,而且前后诗句的内容在逻辑上也是顺畅的。之前大家说机器写的诗看起来每句话都还不错,但是整体意境不够,现在已经能有效弥补了。对于每一句诗歌的生成,则用到了机器翻译技术。对诗歌的第一句进行“翻译”得到第二句诗,再对第二句进行“翻译”得到第三句,以此类推。我们用“西湖”作为输入,“为你写诗”生成的七言诗意境优美、逻辑通畅。
<img src="/uploads/allimg/200412/1-2004120Q236158.jpg" />
图3-3 手机百度的“为你写诗”生成的七言诗
注:使用手机百度或智能革命App扫描图片可见AR效果。
<h2>
人类的数据镜像</h2>
人类在科技产品的娇惯下,口味日渐挑剔,大数据能从那些枯燥乏味的选择之上给出一抹亮眼的色彩。以前的电视机不会回应我们的喜怒哀乐,但现在成熟的视频网站正在耐心仔细地收集着我们的每一种反馈,不管是收藏还是下载,是关闭还是快进,都一一记录,然后利用大数据计算出我们的喜好、消费能力等各种指标。
美剧《纸牌屋》风靡一时,剧中政客们斗牌,剧后则是大数据在下一盘看不见的大棋。出品人为美国著名的网络电视公司Netflix。它深谙大数据分析的妙处,除了以上提到的用户行为,还会尽力收集观看时段、观看设备、观看人数和场景,分析用户喜欢的节目中的主演状况、导演是谁等。通过大数据分析,断定《纸牌屋》的题材会火爆,于是从BBC(英国广播公司)手中高价购买了翻拍版权,并预测凯文·史派西是最合适的主演人选。最终结果证明了Netflix对于《纸牌屋》的押注完全正确。当我们在荧幕前感叹史派西所扮演的总统拥有掌控一切的智慧时,却没有意识到“数据总统”的威力。
美国新任总统特朗普就是一位充分利用数据竞选的总统。据彭博等媒体报道,他的技术团队通过脸书、推特等平台上的用户公开数据,如点赞、转发、收藏行为等,精准描述选民画像,向他们推送因人而异的竞选广告。甚至特朗普的每条推特、每条脸书都是有针对性的,不同内容对不同网民可见。
通过大数据对用户进行精准画像,这也是百度大脑擅长的领域。2016年十分火爆的电影《魔兽》的出品方传奇影业与百度大脑合作,根据对百度海量用户的分析,将电影广告精准推荐给潜在观众。虽然这部电影在北美市场票房不佳,但在中国大卖2.21亿美元。当魔兽粉丝在影院里高喊“为了部落!”的时候,也许正是大数据悄悄赋予了他们原力。
中国人都说“民以食为天”,比起挑选电影,怎么能“吃好”更是全民关心的热门话题。2013年百度曾发布过一个《中国十大“吃货”省市排行榜》,让网友乐此不疲。这个榜单利用了百度知道和百度搜索的大数据,根据网友们多达7700万条关于“吃”的问答,总结出了各地不同的饮食习惯和特色。
海量数据中被挖掘出了不少有趣的现象:“吃什么水果减肥最快”有多达30万人提问过,看来许多网友在吃的同时还不忘顾及身材;“昨天晚上还活着的螃蟹死了,还能吃吗?”这一问题有高达6万条回复,看得出中国“吃货”对于螃蟹的热情特别高。当然更多的还是诸如“××能吃吗”“××怎么吃”这类的日常问题,光是“菠菜和豆腐能不能一起吃”就引起了无数讨论。
这些问题数量庞大并且看似混乱重复。但重复正是大数据的妙处。大数据可以从中捕捉到更深刻的含义。如福建、广东地区的网友经常会问某种虫是否可以吃的问题;而西北网友则对海鲜的吃法颇感疑惑。不同用户关心的食材、做法各不相同,百度大数据正是从中归纳出了各省市的“吃货”属性。在这背后大数据考量了网友的地理位置、提问回答的时间、问题中关于吃法或者做法等信息,甚至将网友使用的手机品牌等各种维度都纳入计算当中。
除了对人类关注信息的描摹,大数据甚至在构造我们的身体。现在许多人都十分熟悉的健身腕带,就是通过收集我们日常运动作息的数据,例如,行走步数、卡路里消耗、睡眠时长等来分析我们的健康状况并提出建议。更进一步,未来我们可以将个人数据上传,通过大数据检测我们罹患各种疾病的可能性或者潜在威胁,更好地预防疾病。
关于生活中的大数据有许多例子。我们现在用到的绝大部分成熟的互联网产品,无论是计算机还是智能手机,背后都或多或少有大数据的身影。当我们理所当然地使用这些服务时,就已经邀请大数据进入我们的生活。它默默注视着我们生活中的每一个细节,潜移默化地鼓励和劝告我们做出选择,强化了我们的角色。
<h2>
突破:机器学习与人工智能</h2>
1950年,阿兰·图灵创造了一个针对机器的测试方法,即后来大名鼎鼎的“图灵测试”。这位充满传奇色彩的科学家认为,如果一台机器能够与人类展开对话(通过电传设备)而不能被辨别出其机器身份,那么就可以认为这台机器具有智能。这一简化使图灵能够令人信服地说明“思考的机器”是可能的,而“图灵测试”直到现在也被当作判断人工智能的重要标准。
这个标准已经暗示了一个新的路径,只要机器表现得像人类,我们可以不必过分关心机器的运作规则是什么。有人提出让机器自己来学习规则的办法,人类不用操心那些规则是什么。
1949年,唐纳德·赫布基于神经心理学的学习机制,踏出了机器学习的第一步,创造了此后被称为赫布学习规则的方法。赫布认为神经网络的学习过程发生在神经元之间的突触部位,突触的联结强度随着突触前后神经元的活动而变化,正确的反馈会让两个神经元的联系得到强化。这个原理机制类似巴甫洛夫的条件反射实验:每次给狗喂食前都先响铃,时间一长,狗的神经系统就会将铃声和食物联系起来。赫布用一套加权公式来模仿人类的神经网,权重就代表神经元之间联系的强弱。赫布给机器创造了一套可以简单区分事物的方法,对于每个数据,让决策树程序做出判断,判断对了就奖励(提高函数的权重),判断错了就惩罚(降低函数的权重)。他利用这个方法创造了一个分类器,可以提取数据集的统计特性,把输入信息按照它们的相似程度划分为若干类。看上去如同人类在观察某种现象时,会观察和总结并区分事物,但机器的这种“观察”更接近一种通过训练达成的条件反射,并非如人类那样思考,重视的是数据中蕴含的相关性关系,而非人类思维中的因果性关系。
之后的十几年中,关于人工智能的研究愈发热烈,灵感一个接一个地涌出。1952年,IBM科学家亚瑟·塞缪尔成功开发了一个可以下得越来越好的跳棋程序。他创造了“机器学习”的概念,并将它定义为“可以提供计算机能力而无需显式编程的研究领域”。
1957年,Rosenblatt(罗森布拉特)提出了感知机的概念,成为日后发展神经网络和支持向量机(Support Vector Machine,SVM)的基础。感知机就是一种用算法构造的“分类器”,是一种线性分类模型,原理就是通过不断地训练试错以期寻找一个合适的超平面把数据分开(超平面可以这样理解:三维坐标空间里二维的形状称作平面,能划分三维空间。如果数据是多维的,那么N维坐标空间里,N-1维就是超平面,能划分N维空间)。如同你把写着“正确”和“错误”的两堆球输入进去,感知机可以为你找出这两堆不同球的分界线。
感知机好比在输入和输出之间只有一层的神经网络。当面对复杂一点的情况时就力不从心了,比如当“正确”和“错误”的球互相混合的时候,或者又有第三种球出现的时候,感知机就无法找到那个分类的界线。这使感知机很难在一些即使看似简单的问题上有所突破。
如今,不需要人类输入规则(编程),而是让机器自己寻找规则,这样看上去机器就有了自己的智能。今天的人工智能便是在机器学习的基础上发展起来的,只是成长速度受到硬件和方法的限制。
如果多台电脑、多个芯片联网进行机器学习,而且具备多个芯片网络层次,就进入了所谓的“深度学习”的范畴。在20世纪70年代末,Geoffrey Hinton教授等人已经发现,如果能实现多层的神经网络,就可以逐层递进找到模式中的模式,让计算机自己解决复杂的问题。那时他们就开发了“反向传播”算法神经网络。但是多层神经网络的复杂性也导致对其训练的难度大大增加,数据不足和硬件计算能力成为掣肘。
从20世纪60年代中期到20世纪70年代末,机器学习的发展步伐几乎处于停滞状态。这种情况一直到20世纪80年代才有所好转。随着计算机性能的突飞猛进和互联网的到来,人工智能研究终于如虎添翼,在20世纪90年代,现代机器学习初步成形。
互联网在20世纪90年代投入商用,使分布式计算方法获得长足发展。超级计算机造价昂贵,而分布式计算技术则发挥了“人多力量大”的优势,让多台普通计算机可以协同工作,各自承担计算任务的一部分,并把计算结果汇总,效率可以超过超级计算机,而且分布式的结构正好适应了日渐增多的数据量。
<h2>
计算机神经网络生长与深度学习</h2>
由于传统人工智能一味依赖科学家输入的规则模型,导致它只有在解决一些规则比较清楚的问题时才比较有效,比如击败卡斯帕罗夫的“深蓝”就是这样一种“人工智能”。当面对识别一张图片这类人类在婴儿阶段就能学会的简单问题时,这类人工智能却无计可施,因为这种认知类问题只有一个模糊的概念,没有清楚简单的规则。而计算机神经网络的特点就是它不需要人类提前告知规则,它会自己从海量的基础数据里识别模式(规则)。
顾名思义,神经网络类似人类大脑,由一个个神经元组成,每个神经元和多个其他神经元连接,形成网状。单个神经元只会解决最简单的问题,但是组合成一个分层的整体,就可以解决复杂问题。
Geoffrey Hinton认为,传统的机器学习方法只利用了一层芯片网络,在遇到真正复杂的问题时,处理效率就会变得十分低下。深度学习的最核心理念是通过增加神经网络的层数来提升效率,将复杂的输入数据逐层抽象和简化。也就是说,将复杂的问题分段解决,每一层神经网络就解决每一层的问题,这一层的结果交给下一层去进行进一步处理。