第二章 AI复兴:深度学习+大数据=人工智能(第17/20页)

最后,需要特别说明的是,以上对深度学习的概念阐述刻意避免了数学公式和数学论证,这种用水管网络来普及深度学习的方法只适合一般公众。对于懂数学、懂计算机科学的专业人士来说,这样的描述相当不完备也不精确。流量调节阀的比喻与深度神经网络中每个神经元相关的权重调整,在数学上并非完全等价。对水管网络的整体描述也有意忽略了深度学习算法中的代价函数、梯度下降、反向传播等重要概念。专业人士要学习深度学习,还是要从专业教程看起。

大数据:人工智能的基石

目前的深度学习主要是建立在大数据的基础上,即对大数据进行训练,并从中归纳出可以被计算机运用在类似数据上的知识或规律。那么,到底什么是大数据呢?

人们经常笼统地说,大数据就是大规模的数据。

这个说法并不准确。“大规模”只是指数据的量而言。数据量大,并不代表着数据一定有可以被深度学习算法利用的价值。例如,地球绕太阳运转的过程中,每一秒钟记录一次地球相对太阳的运动速度、位置,这样积累多年,得到的数据量不可谓不大,但是,如果只有这样的数据,其实并没有太多可以挖掘的价值,因为地球围绕太阳运转的物理规律,人们已经研究得比较清楚了,不需要由计算机再次总结出万有引力定律或广义相对论来。

那么,大数据到底是什么?大数据是如何产生的?什么样的数据才最有价值,最适合作为计算机的学习对象呢?

根据马丁·希尔伯特(Martin Hilbert)的总结49,今天我们常说的大数据其实是在2000年后,因为信息交换、信息存储、信息处理三个方面能力的大幅增长而产生的数据:

·信息交换:据估算,从1986年到2007年这20年间,地球上每天可以通过既有信息通道交换的信息数量增长了约217倍,这些信息的数字化程度,则从1986年的约20%增长到2007年的约99.9%50。在数字化信息爆炸式增长的过程里,每个参与信息交换的节点都可以在短时间内接收并存储大量数据。这是大数据得以收集和积累的重要前提条件。例如,根据对社交网站Twitter的统计,全球范围内每秒钟新增的推文条数约6000条,每分钟约350000条,每天约5亿条,每年约2000亿条。在网络带宽大幅提高之前,这个规模的信息交换是不可想象的。

·信息存储:全球信息存储能力大约每3年翻一番。从1986年到2007年这20年间,全球信息存储能力增加了约120倍,所存储信息的数字化程度也从1986年的约1%增长到2007年的约94%。1986年时,即便用上我们所有的信息载体、存储手段,我们也不过能存储全世界所交换信息的大约1%,而2007年这个数字已经增长到大约16%。信息存储能力的增加为我们利用大数据提供了近乎无限的想象空间。例如,谷歌这样的搜索引擎,几乎就是一个全球互联网的“备份中心”,谷歌的大规模文件存储系统完整保留了全球大部分公开网页的数据内容,相当于每天都在为全球互联网做“热备份”。

·信息处理:有了海量的信息获取能力和信息存储能力,我们也必须有对这些信息进行整理、加工和分析的能力。谷歌、Facebook、亚马逊、百度、阿里等公司在数据量逐渐增大的同时,也相应建立了灵活、强大的分布式数据处理集群。数万台乃至数十万台计算机构成的并行计算集群每时每刻都在对累积的数据进行进一步加工和分析。谷歌的分布式处理三大利器——GFS、Map Reduce和Bigtable就是在大数据的时代背景下诞生并成为绝大多数大数据处理平台的标准配置。利用这些数据处理平台,谷歌每天都会将多达数百亿的搜索记录清理、转换成便于数据分析的格式,并提供强有力的数据分析工具,可以非常快地对数据进行聚合、维度转换、分类、汇总等操作。

图29 大数据的三大支柱

从应用角度来说,今天的大数据越来越多地呈现出以下一种或几种特性:

大数据越来越多地来源于生产或服务过程的副产品,但在价值上却往往超过了为了特定目的专门采集的数据。例如,谷歌的大数据虽然主要从搜索引擎的日常使用中获得,但如果深入挖掘,这些数据往往具有非常高的专业价值。谷歌曾利用全球用户查询中,涉及流行性感冒的关键词的出现频率变化情况,对2003年到2008年全球季节性流感的分布和传播进行跟踪与预测51。这一预测的覆盖规模和价值甚至超出了各国卫生部门专门收集相关数据所做的预测。