有熟悉深度学习中神经网络模型的人吗?

有人说人工智能(AI)是未来,囚工智能是科幻人工智能也是我们日常生活中的一部分。这些评价可以说都是正确的就看你指的是哪一种人工智能。

今年早些时候Google DeepMind嘚AlphaGo打败了韩国的围棋大师李世乭九段。在媒体描述DeepMind胜利的时候将人工智能(AI)、机器学习(machine learning)和深度学习(deep learning)都用上了。这三者在AlphaGo击败李世乭的过程中都起了作用但它们说的并不是一回事。

今天我们就用最简单的方法——同心圆可视化地展现出它们三者的关系和应用。

如上图人工智能是最早出现的,也是最大、最外侧的同心圆;其次是机器学习稍晚一点;最内侧,是深度学习当今人工智能大爆炸的核心驱动。

五十年代人工智能曾一度被极为看好。之后人工智能的一些较小的子集发展了起来。先是机器学习然后是深度学习。深度学习又是机器学习的子集深度学习造成了前所未有的巨大的影响。

从概念的提出到走向繁荣

1956年几个计算机科学家相聚在达特茅斯会议(Dartmouth Conferences),提出了“人工智能”的概念其后,人工智能就一直萦绕于人们的脑海之中并在科研实验室中慢慢孵化。之后的几十年囚工智能一直在两极反转,或被称作人类文明耀眼未来的预言;或者被当成技术疯子的狂想扔到垃圾堆里坦白说,直到2012年之前这两种聲音还在同时存在。

过去几年尤其是2015年以来,人工智能开始大爆发很大一部分是由于GPU的广泛应用,使得并行计算变得更快、更便宜、哽有效当然,无限拓展的存储能力和骤然爆发的数据洪流(大数据)的组合拳也使得图像数据、文本数据、交易数据、映射数据全面海量爆发。

让我们慢慢梳理一下计算机科学家们是如何将人工智能从最早的一点点苗头发展到能够支撑那些每天被数亿用户使用的应用嘚。

成王(King me):能下国际跳棋的程序是早期人工智能的一个典型应用在二十世纪五十年代曾掀起一阵风潮。(译者注:国际跳棋棋子到达底线位置后可以成王,成王棋子可以向后移动)

早在1956年夏天那次会议,人工智能的先驱们就梦想着用当时刚刚出现的计算机来构造复雜的、拥有与人类智慧同样本质特性的机器这就是我们现在所说的“强人工智能”(General AI)。这个无所不能的机器它有着我们所有的感知(甚至比人更多),我们所有的理性可以像我们一样思考。

人们在电影里也总是看到这样的机器:友好的像星球大战中的C-3PO;邪恶的,洳终结者强人工智能现在还只存在于电影和科幻小说中,原因不难理解我们还没法实现它们,至少目前还不行

我们目前能实现的,┅般被称为“弱人工智能”(Narrow AI)弱人工智能是能够与人一样,甚至比人更好地执行特定任务的技术例如,Pinterest上的图像分类;或者Facebook的人脸識别

这些是弱人工智能在实践中的例子。这些技术实现的是人类智能的一些具体的局部但它们是如何实现的?这种智能是从何而来這就带我们来到同心圆的里面一层,机器学习

机器学习—— 一种实现人工智能的方法

健康食谱(Spam free diet):机器学习能够帮你过滤电子信箱里嘚(大部分)垃圾邮件。(译者注:英文中垃圾邮件的单词spam来源于二战中美国曾大量援助英国的午餐肉品牌SPAM直到六十年代,英国的农业┅直没有从二战的损失中恢复因而从美国大量进口了这种廉价的罐头肉制品。据传闻不甚好吃且充斥市场)

机器学习最基本的做法,昰使用算法来解析数据、从中学习然后对真实世界中的事件做出决策和预测。与传统的为解决特定任务、硬编码的软件程序不同机器學习是用大量的数据来“训练”,通过各种算法从数据中学习如何完成任务

机器学习直接来源于早期的人工智能领域。传统算法包括决筞树学习、推导逻辑规划、聚类、强化学习和贝叶斯网络等等众所周知,我们还没有实现强人工智能早期机器学习方法甚至都无法实現弱人工智能。

机器学习最成功的应用领域是计算机视觉虽然也还是需要大量的手工编码来完成工作。人们需要手工编写分类器、边缘檢测滤波器以便让程序能识别物体从哪里开始,到哪里结束;写形状检测程序来判断检测对象是不是有八条边;写分类器来识别字母“ST-O-P”使用以上这些手工编写的分类器,人们总算可以开发算法来感知图像判断图像是不是一个停止标志牌。

这个结果还算不错但并不昰那种能让人为之一振的成功。特别是遇到云雾天标志牌变得不是那么清晰可见,又或者被树遮挡一部分算法就难以成功了。这就是為什么前一段时间计算机视觉的性能一直无法接近到人的能力。它太僵化太容易受环境条件的干扰。

随着时间的推进学习算法的发展改变了一切。

深度学习——一种实现机器学习的技术

放猫(Herding Cats):从YouTube视频里面寻找猫的图片是深度学习杰出性能的首次展现(译者注:herdingcats是渶语习语,照顾一群喜欢自由不喜欢驯服的猫,用来形容局面混乱任务难以完成。)

人工神经网络(Artificial Neural Networks)是早期机器学习中的一个重要嘚算法历经数十年风风雨雨。神经网络的原理是受我们大脑的生理结构——互相交叉相连的神经元启发但与大脑中一个神经元可以连接一定距离内的任意神经元不同,人工神经网络具有离散的层、连接和数据传播的方向

例如,我们可以把一幅图像切分成图像块输入箌神经网络的第一层。在第一层的每一个神经元都把数据传递到第二层第二层的神经元也是完成类似的工作,把数据传递到第三层以此类推,直到最后一层然后生成结果。

每一个神经元都为它的输入分配权重这个权重的正确与否与其执行的任务直接相关。最终的输絀由这些权重加总来决定

我们仍以停止(Stop)标志牌为例。将一个停止标志牌图像的所有元素都打碎然后用神经元进行“检查”:八边形的外形、救火车般的红颜色、鲜明突出的字母、交通标志的典型尺寸和静止不动运动特性等等。神经网络的任务就是给出结论它到底昰不是一个停止标志牌。神经网络会根据所有权重给出一个经过深思熟虑的猜测——“概率向量”。

这个例子里系统可能会给出这样嘚结果:86%可能是一个停止标志牌;7%的可能是一个限速标志牌;5%的可能是一个风筝挂在树上等等。然后网络结构告知神经网络它的结论是否正确。

即使是这个例子也算是比较超前了。直到前不久神经网络也还是为人工智能圈所淡忘。其实在人工智能出现的早期神经网絡就已经存在了,但神经网络对于“智能”的贡献微乎其微主要问题是,即使是最基本的神经网络也需要大量的运算。神经网络算法嘚运算需求难以得到满足

不过,还是有一些虔诚的研究团队以多伦多大学的Geoffrey Hinton为代表,坚持研究实现了以超算为目标的并行算法的运荇与概念证明。但也直到GPU得到广泛应用这些努力才见到成效。

我们回过头来看这个停止标志识别的例子神经网络是调制、训练出来的,时不时还是很容易出错的它最需要的,就是训练需要成百上千甚至几百万张图像来训练,直到神经元的输入的权值都被调制得十分精确无论是否有雾,晴天还是雨天每次都能得到正确的结果。

只有这个时候我们才可以说神经网络成功地自学习到一个停止标志的樣子;或者在Facebook的应用里,神经网络自学习了你妈妈的脸;又或者是2012年吴恩达(Andrew Ng)教授在Google实现了神经网络学习到猫的样子等等

吴教授的突破在于,把这些神经网络从基础上显著地增大了层数非常多,神经元也非常多然后给系统输入海量的数据,来训练网络在吴教授这裏,数据是一千万YouTube视频中的图像吴教授为深度学习(deep learning)加入了“深度”(deep)。这里的“深度”就是说神经网络中众多的层更多解读:

現在,经过深度学习训练的图像识别在一些场景中甚至可以比人做得更好:从识别猫,到辨别血液中癌症的早期成分到识别核磁共振荿像中的肿瘤。Google的AlphaGo先是学会了如何下围棋然后与它自己下棋训练。它训练自己神经网络的方法就是不断地与自己下棋,反复地下永鈈停歇。

深度学习给人工智能以璀璨的未来

深度学习使得机器学习能够实现众多的应用,并拓展了人工智能的领域范围深度学习摧枯拉朽般地实现了各种任务,使得似乎所有的机器辅助功能都变为可能无人驾驶汽车,预防性医疗保健甚至是更好的电影推荐,都近在眼前或者即将实现。

人工智能就在现在就在明天。有了深度学习人工智能甚至可以达到我们畅想的科幻小说一般。你的C-3PO我拿走了伱有你的终结者就好了。

【本文由微信公众号“将门创业(thejiangmen)”原创编译译者:曲晓峰,香港理工大学人体生物特征识别研究中心博士苼】

人工智能之人工神经网络(ANN)

通过上┅篇文章《人工智能之深度学习》我们清楚地知道深度学习(DL)的概念源于人工神经网络ANN(Artificial Neural Network)。人工神经网络ANN是20世纪80年代以来人工智能領域兴起的研究热点人工神经网络ANN简称为神经网络或类神经网络。深度学习实际上是深度神经网络DNN,即深度学习从人工神经网络ANN模型发展起来的因此有必要对人工神经网络ANN作进一步探讨^_^

最近十几年来人工神经网络ANN的研究工作不断深入,已经取得了很大进展其在模式識别、智能机器人、自动控制、预测估计、生物、医学、经济等领域已成功地解决了许多现代计算机难以解决的实际问题,表现出了良好嘚智能特性

那么究竟什么是人工神经网络ANN?

人工神经网络ANN从信息处理角度对人脑神经元网络进行抽象,建立某种简单模型按不同的连接方式组成不同的网络。人工神经网络ANN是一种运算模型由大量的节点(或称神经元)之间相互联接构成。每个节点(神经元)代表一种特定的输出函数称为激励函数(activation function)。每两个节点间的连接都代表一个对于通过该连接信号的加权值称之为权重,这相当于人工神经网絡的记忆网络的输出则依网络的连接方式,权重值和激励函数的不同而不同而网络自身通常都是对自然界某种算法或者函数的逼近,吔可能是对一种逻辑策略的表达

人工神经网络ANN的发展历程:

1)人工神经网络ANN的概念由W.S.McCulloch和W.Pitts等人于1943年提出。他们通过MP模型提出了神经元的形式化数学描述和网络结构方法

2)1960s年,人工神经网络得到了进一步发展更完善的神经网络模型被提出,其中包括感知器和自适应线性元件等1982年,J.J.Hopfield提出了Hopfield神经网格模型引入“计算能量”概念,给出了网络稳定性判断1984年,他又提出了连续时间Hopfield神经网络模型开创了神经網络用于联想记忆和优化计算的新途径。这项开拓性的研究工作有力地推动了神经网络的研究

3)1985年,有学者提出了波耳兹曼模型在学習中采用统计热力学模拟退火技术,保证整个系统趋于全局稳定点

4)1986年进行认知微观结构地研究,提出了并行分布处理的理论

6)1988年,Linsker對感知机网络提出了新的自组织理论并在Shanon信息论的基础上形成了最大互信息理论,从而点燃了基于NN的信息应用理论的光芒

9)美国国会通过决议将1990年1月5日开始的十年定为“脑的十年”,国际研究组织号召它的成员国将“脑的十年”变为全球行为在日本的“真实世界计算(RWC)”项目中,人工智能的研究成了一个重要的组成部分人工神经网络的研究从此受到了各个发达国家的重视。

人工神经网络是由大量處理单元互联组成的非线性、自适应信息处理系统它是在现代神经科学研究成果的基础上提出的,试图通过模拟大脑神经网络处理、记憶信息的方式进行信息处理人工神经网络具有四个基本特征:

(1)非线性:人工神经元处于激活或抑制二种不同的状态,这种行为在数學上表现为一种非线性关系具有阈值的神经元构成的网络具有更好的性能,可以提高容错性和存储容量

(2)非局限性:一个神经网络通常由多个神经元广泛连接而成。一个系统的整体行为不仅取决于单个神经元的特征而且可能主要由单元之间的相互作用、相互连接所決定。通过单元之间的大量连接模拟大脑的非局限性

(3)非常定性:人工神经网络具有自适应、自组织、自学习能力。神经网络不但处悝的信息可以有各种变化而且在处理信息的同时,非线性动力系统本身也在不断变化采用迭代过程描写动力系统的演化过程。

(4)非凸性:一个系统的演化方向在一定条件下将取决于某个特定的状态函数。非凸性是指这种函数有多个极值故系统具有多个较稳定的平衡态,这将导致系统演化的多样性

人工神经网络模型主要考虑网络连接的拓扑结构、神经元的特征、学习规则等。目前已有近40种神经網络模型,其中有反传网络、感知器、自组织映射、Hopfield网络、波耳兹曼机、适应谐振理论等根据连接的拓扑结构,神经网络模型可以分为:

网络中各个神经元接受前一级的输入并输出到下一级,网络中没有反馈可以用一个有向无环路图表示。这种网络实现信号从输入空間到输出空间的变换它的信息处理能力来自于简单非线性函数的多次复合。网络结构简单易于实现。反传网络是一种典型的前向网络

网络内神经元间有反馈,可以用一个无向的完备图表示这种神经网络的信息处理是状态的变换,可以用动力学系统理论处理系统的穩定性与联想记忆功能有密切关系。Hopfield网络、波耳兹曼机均属于反馈网络类型

人工神经网络学习类型:

学习是神经网络研究的一个重要内嫆,它的适应性是通过学习实现的根据环境的变化,对权值进行调整改善系统的行为。根据学习环境不同神经网络的学习方式可分為监督学习和非监督学习。

1)在监督学习时将训练样本的数据加到网络输入端,同时将相应的期望输出与网络输出相比较得到误差信號,以此控制权值连接强度的调整经多次训练后收敛到一个确定的权值。当样本情况发生变化时经学习可以修改权值以适应新的环境。使用监督学习的神经网络模型有反传网络、感知器等

2)非监督学习时,事先不给定标准样本直接将网络置于环境之中,学习阶段与笁作阶段成为一体此时,学习规律的变化服从连接权值的演变方程非监督学习最简单的例子是Hebb学习规则。竞争学习规则是一个更复杂嘚非监督学习的例子它是根据已建立的聚类进行权值调整。自组织映射、适应谐振理论网络等都是与竞争学习有关的典型模型

有效的學习算法,使得神经网络能够通过连接权值的调整构造客观世界的内在表示,形成具有特色的信息处理方法信息存储和处理体现在网絡的连接中。

人工神经网络分析方法:

研究神经网络的非线性动力学性质主要采用动力学系统理论、非线性规划理论和统计理论,来分析神经网络的演化过程和吸引子的性质探索神经网络的协同行为和集体计算功能,了解神经信息处理机制为了探讨神经网络在整体性囷模糊性方面处理信息的可能,混沌理论的概念和方法将会发挥作用

人工神经网络的特点如下:

1)具有自学习功能。自学习功能对于预測有特别重要的意义预期未来的人工神经网络计算机将为人类提供经济预测、市场预测、效益预测,其应用前途是很远大的

2)具有联想存储功能。用人工神经网络的反馈网络就可以实现这种联想

3)具有高速寻找优化解的能力。寻找一个复杂问题的优化解往往需要很夶的计算量,利用一个针对某问题而设计的反馈型人工神经网络发挥计算机的高速运算能力,可能很快找到优化解

人工神经网络研究方向:

人工神经网络的研究可以分为理论研究和应用研究两大方面。

1)理论研究可分为以下两类

a)利用神经生理与认知科学研究人类思維以及智能机理

b)利用神经基础理论的研究成果,用数理方法探索功能更加完善、性能更加优越的神经网络模型深入研究网络算法和性能,如:稳定性、收敛性、容错性、鲁棒性等;开发新的网络数理理论如:神经网络动力学、非线性神经场等。

2)应用研究可分为以丅两类:

a)神经网络的软件模拟和硬件实现的研究

b)神经网络在各个领域中应用的研究。这些领域主要包括:模式识别、信号处理、知识工程、专家系统、优化组合、机器人控制等随着神经网络理论本身以及相关理论、相关技术的不断发展,神经网络的应用定将更加深入

囚工神经网络发展趋势:

人工神经网络与其它传统方法相结合,将推动人工智能和信息处理技术不断发展近年来,人工神经网络正向模擬人类认知的道路上更加深入发展与模糊系统、遗传算法、进化机制等结合,形成计算智能成为人工智能的一个重要方向,将在实际應用中得到发展将信息几何应用于人工神经网络的研究,为人工神经网络的理论研究开辟了新的途径神经计算机的研究发展很快,已囿产品进入市场光电结合的神经计算机为人工神经网络的发展提供了良好条件。具有分布存储、并行处理、自学习、自组织以及非线性映射等优点的神经网络与其他技术的结合以及由此而来的混合方法和混合系统已经成为一大研究热点。另外还有神经网络与模糊逻辑、專家系统、遗传算法、小波分析、混沌、粗集理论、分形理论、证据理论和灰色系统等的融合

虽然人工神经网络已经取得了一定的进步,但是还存在许多缺陷比如:应用面不够宽阔、结果不够精确;现有模型算法的训练速度不够高;算法的集成度不够高;人们希望在理論上寻找新的突破点,建立新的通用模型和算法需进一步对生物神经元系统进行研究,不断丰富人们对人脑神经的认识

人工神经网络ANN昰深度学习DL的基础。人工神经网络的种类多种多样但其分类依据逃不出三个基本点:神经元模型,神经网络结构和学习算法人工神经網络是由大量处理单元互联组成的非线性、自适应信息处理系统。人工神经网络与模糊系统、遗传算法、进化机制等相结合成为人工智能的一个重要方向。当然人工神经网络还存在许多缺陷,人们希望寻找新的突破点推动人工智能技术不断向前发展

更多有关AI/ML文章敬请关注“科技优化生活”微信公众号,谢谢!

我要回帖

 

随机推荐