c

浅述人工智能与大数据之异同

文=张治斌,刘威

人工智能和大数据是目前非常流行的专业术语,无论从政府中长期规划、企业创新发展、大专院校专业建设规划,以及近年来对求职人才稀缺岗位和职位热度分析,都不难看出人工智能与大数据已经成为耳熟能详并深受热捧的行业,两者也常常被人们拿出来相提并论,但事实上二者之间因为既有相似之处,又有各自的特点,因此很容易被混为一谈,下面,本文将从两者的定义、发展历程、相互约束的关系等角度通俗解读二者区别。

 

1 定义及发展历程

 

1.1 人工智能的基本定义及发展历程

 

根据人工智能学会与罗兰贝格联合发布的最新报告,人工智能的定义是利用计算机模拟人类智能行为科学的统称,它涵盖了训练计算机使其能够完成自主学习、判断、决策等人类行为的范畴。

 

依据不同层级人工智能又分为弱人工智能、强人工智能和超强人工智能。所谓弱人工智能是指只能专注于解决某一类特定领域问题,并不真正拥有智能,也不会有自主意识。例如我们现在熟知的AlphaGo虽然能够轻松战勝人类围棋世界冠军,但其所有的软硬件功能只能为围棋服务,因此属于这一范畴;强人工智能是指能够真正具有推理和解决问题能力的智能机器,这种机器既有知觉又具备自我意识,能够快速、独立地完成思考、计划、抽象思维以及所有人类大脑能完成的各种脑力劳动,而且这一阶段的人工智能已经具备对“生存”和“安全”的渴求,电影《人工智能》中的大卫正是属于这一范畴;超人工智能的计算和思维能力已经远远超出人类预想,其观察和思考的范围已经为人类难以理解。从以上分析可见,目前我们所有人工智能算法和应用也仅仅止步于弱人工智能领域。

 

从1950年图灵第一次提出对人工智能的设想,继而1956年达特茅斯会议AI正式诞生,人工智能发展经历了:1956年-1976年研究不聚焦,但市场期望过高的第一阶段;1976年-1986年左右,探索商业化但迅速被替代的第二阶段;到从1997年深蓝战胜国际象棋冠军开始至今的设施就位,与应用结合,但存在非理性繁荣的第三阶段。今天,伴随着物联网、大规模并行计算、深度学习算法和大数据技术的呈现,将人工智能发展进一步推向高潮。

 

物联网作为计算机感知和控制世界的接口和手段,可以实现数据的采集、记忆、分析、传送数据、交互、控制等功能,类同于人类的感官;大规模的并行计算摆脱了CPU处理器的计算方式,拥有更多的内核去处理更多的并行计算任务,而云计算的出现、GPU的大规模应用使得集中化的数据计算处理能力变得前所未有的强大;海量的数据是人工智能的学习和发展的温床,为优化计算机的处理性能提供了土壤;而深度学习算法却是当前人工智能最先进、应用最广泛的核心技术,深层神经网络逐层训练的高效算法和优异的实验结果,让神经网络模型训练成为了可能,使人类开始重新关注人工智能。

 

1.2 “大数据”的基本定义及发展历程

 

“大数据”一词最初在1997年由美国宇航局飞行员来描述20世纪90年代的挑战,用于形容“模拟飞机周围的气流——是不能被处理和可视化的”;麦肯锡全球研究所给出大数据的定义是一种规模大到在获取、存储、管理、分析方面大大超出了传统数据库软件工具能力范围的数据集合,具有海量的数据规模、快速的数据流转、多样的数据类型和价值密度低四大特征。

 

大数据技术在2002年9月11日美国被恐怖组织袭击后已经逐渐被涉足和重视,到2008年,随着社交网络用户的普遍推广和用户激增,使得“大数据”的飞速增长获得温床,同年9月,《自然》杂志推出以“大数据”为主题的封面,预示着大数据年代的到来。此后,大数据技术发展经历了2009年-2011年的热门阶段;2012年-2016年的“大数据”时代特征阶段;乃至2017年至今的“大数据”爆发阶段。

 

人的大脑存储着各种纷繁复杂的海量知识,这些或碎片或系统的知识获取渠道是通过感官进行信息采集,通过神经中枢传导并存储在大脑皮层,这些知识在逻辑上通常不能存在一定的关系,更有大量杂乱无章的干扰信息阻止人类搜索到有效地信息用于指导决策和行为的计划、分析与执行。那么形象上理解,可以将人脑中的海量信号理解为大数据,这些大数据在被使用之初要经历采集、传输、存储、分类等工作,并做适当的清理以提出各种复杂的干扰信号;而人工智能可以理解为人类在通过各种渠道获取知识,通过反复训练来积累、总结经验,进而提升个人分析、决策,乃至执行能力的这一系统过程。

 

2 主要技术与应用

 

从以上论述可知,大数据技术的宗旨是在数据转变为有用的知识之前进行必要的清理、集成、分类、结构化等操作,是对数据的属性、状态、存储形式的操作;人工智能更侧重于知识的产出,即通过数据的内涵产生有意义的智能输出。故此,两者在技术路线与框架上也势必有所区别。

 

2.1 人工智能的主要技术

 

支持人工智能的机器旨在分析和解释数据,然后根据这些解释解决问题,以便对决策和学习做出最佳决定。通过机器学习,计算机会学习如何对某个结果采取行动或做出快速、准确的反应,并在未来知道采取相同的行动。

 

人工智能更关注算法与计算形式,通过不断优化算法提升机器的认知与执行能力,针对某种输入获取人类期许的输出。与传统计算应用程序不同,人工智能放弃所有响应都采用编码的方式,而是通过不断分析和解释数据,继而调整和优化对某种情景采取行动或作出响应,并在后续同种情况采取相同行动。

 

第三次浪潮的人工智能把一些技术、神经元网络和统计的方法结合在一起。人工智能技术在神经网络基础上发展成多层神经网络,进而进行深度学习。目前人工智能技术涉及机器学习、知识图谱、自然语言处理、计算机视觉、人机交互、生物特征识别、虚拟现实/增强现实等关键技术。而人工智能学科研究的主要内容包括:知识表示、自动推理和搜索方法、机器学习和知识获取、知识处理系统、自然语言理解、计算机视觉、智能机器人、自动程序设计等方面,主要应用体现在:机器视觉,指纹识别,人脸识别,视网膜识别,虹膜识别,掌纹识别,专家系统,自动规划,智能搜索,定理证明,博弈,自动程序设计,智能控制,机器人学,语言和图像理解,遗传编程等。

 

2.2 大数据主要技术

 

大数据多采用传统的统计计算方法,可以针对各种纷繁复杂的数据,寻求内涵的結果,进而获得潜藏在数据背后能够指导人类行为决策的洞察力,例如淘宝可以根据用户每次浏览的商品内容的种类、价格、属性等获取用户的消费能力与消费习惯,进而推荐用户喜闻乐见的商品。这些被分析处理的数据可以是结构化(关系型数据库中的事务数据表)、非结构化或半结构化数据(电子邮件、网站浏览信息、图像、视频、声音、传感器数据等)。

 

根据大数据处理的生命周期,大数据的技术体系涉及数据的采集与预处理、大数据存储与管理、大数据计算模式与系统、大数据分析与挖掘、大数据可视化分析及大数据隐私与安全等几个方面[2]。大数据的飞速发展更离不开云计算,单台计算机无法完成海量数据的处理,通过采用云计算的分布式架构,才能有效对海量数据进行分布式数据挖掘、分布式处理、分布式数据库和云存储和虚拟化等技术。大数据的价值体现在能够为企业产品和服务的精准营销;帮助中小企业实现服务转型;帮助传统企业充分利用大数据背后的价值。目前大数据应用的主要场景包括:精准营销、风险控制、决策支持、效率提升、医疗精诊、生物基因改良等。

 

3 结语

 

大数据技术作为人工智能发展的必备条件,成为构建人工智能技术框架的重要支点,与深度学习算法和基于分布式计算的核心部件共同完成人工智能突飞猛进的三大基础技术支撑,如图1所示。

 

人工智能和大数据虽然有很大区别,但两者之间的联系也越来越就紧密。大数据技术主要针对大规模无规则数据的处理,包括数据的 采集、存储、管理以及挖掘使用等。同时,这些处理过程的改善越来越依赖于人工智能技术的的参与,可以说大数据的一些关键技术也属于人工智能的范畴。因此,人工智能的快速发展也促进了大数据相关技术的发展。人工智能技术是将软硬件结合起来,通过神经网络算法、机器学习等技术处理手段对大数据进行处理,其在特定领域取得 良好的效果离不开大数据的支撑。总之,大数据和人工智能在各类行业中密不可分,二者的结合,是实现计算机达到人类智能水平目标的有效手段。信息化周刊

 

摘自:《数字技术与应用》2018年8期

电子杂志阅读

微信扫一扫

 

 

 

 

 

 

评分
( 0 人投票 0分 )

提交评论(不超过800字)