人工神经网络精选PPT.ppt

上传人:石*** 文档编号:87191259 上传时间:2023-04-16 格式:PPT 页数:86 大小:3.32MB
返回 下载 相关 举报
人工神经网络精选PPT.ppt_第1页
第1页 / 共86页
人工神经网络精选PPT.ppt_第2页
第2页 / 共86页
点击查看更多>>
资源描述

《人工神经网络精选PPT.ppt》由会员分享,可在线阅读,更多相关《人工神经网络精选PPT.ppt(86页珍藏版)》请在得力文库 - 分享文档赚钱的网站上搜索。

1、关于人工神经网络关于人工神经网络第1页,讲稿共86张,创作于星期一2人工神经网络的进展l初创阶段(二十世纪四十年代至六十年代):l1943年,美国心理学家W.S.Mcculloch和数理逻辑学家 和数理逻辑学家W.Pitts 提出了神经元的数学模型,即MP(Mcculloch-Pitts)模型l以数学逻辑为研究手段,探讨了客观事件在神经网络的形式问题l1960年,威德罗和霍夫率先把神经网络用于自动控制研究。l过渡阶段(二十世纪六十年代初至七十年代)lM.Minsky和S.Papert于1969 年出版Perceptron Perceptronl从理论上证明了以单层感知机为代表的网络系统在某些能

2、力方面的局限性。l 60年代末期至 80年代中期,神经网络控制与神经网络进入低潮第2页,讲稿共86张,创作于星期一3人工神经网络的进展(续)l高潮阶段(二十世纪八十年代)l1982和1984年,美国加州理工学院的生物物理学J.J.Hopfield在美国科学院院刊发表的两 篇文章,有力地推动了人工神经网络的研究与应用,并引发了研究神经网络的一次热潮。l80年代后期以来,随着人工神经网络研究的复苏和发展,对神经网络控制的研究也十分活跃。研究进展主要在神经网络自适应控制和模糊神经网络控制及其在机器人控制中的应用上。l平稳发展阶段(二十世纪九十年代以后)l和相关学科交叉融合第3页,讲稿共86张,创作于

3、星期一4 ANN 人工神经网络人工神经网络l概述l基本原理l前向型神经网络l自组织竞争神经网络l神经网络的应用l与人工智能原理的结合lBP神经网络第4页,讲稿共86张,创作于星期一5概述概述l什么叫人工神经网络l采用物理可实现的系统来模仿人脑神经细胞的结构和功能的系统。l为什么要研究神经网络l用计算机代替人的脑力劳动。l计算机速度为纳秒级,人脑细胞反应时间是毫秒级。而计算机不如人。l长期以来人类的梦想,机器既能超越人的计算能力,又有类似于人的识别、分析、联想等能力。第5页,讲稿共86张,创作于星期一6概述概述l人工智能与神经网络l共同之处:研究怎样使用计算机来模仿人脑工作过程,学习实践再学习再

4、实践。l不同之处:l人工智能研究人脑的推理、学习、思考、规划等思维活动,解决需人类专家才能处理的复杂问题。l神经网络企图阐明人脑结构及其功能,以及一些相关学习、联想记忆的基本规则(联想、概括、并行搜索、学习和灵活性)第6页,讲稿共86张,创作于星期一7l例如:l人工智能专家系统是制造一个专家,几十年难以培养的专家。神经网络是制造一个婴儿,一个幼儿,一个可以学习,不断完善,从一些自然知识中汲取智慧的生命成长过程。l同样是模仿人脑,但所考虑的角度不同。l成年人和婴儿l学习过程不一样第7页,讲稿共86张,创作于星期一8概述概述第8页,讲稿共86张,创作于星期一9 ANN 人工神经网络人工神经网络l概

5、述l基本原理l前向型神经网络l自组织竞争神经网络l神经网络的应用l与人工智能原理的结合lBP神经网络第9页,讲稿共86张,创作于星期一10基本原理基本原理第10页,讲稿共86张,创作于星期一11第11页,讲稿共86张,创作于星期一12第12页,讲稿共86张,创作于星期一13生物神经元生物神经元第13页,讲稿共86张,创作于星期一14l神神经元由元由细细胞体、胞体、胞体、胞体、树树突突突突和和轴轴突突突突组成。成。细胞体是神胞体是神经元的主体元的主体,它由它由细胞核、胞核、细胞胞质和和细胞膜三部分构成胞膜三部分构成.从从细胞体向外延伸出胞体向外延伸出许多突起多突起,其中其中大部分突起呈大部分突起

6、呈树状状,称称为树突突.树突起感受作用突起感受作用,接受来自其他神接受来自其他神经元的元的传递信号信号.l由由细胞体伸出的一条最胞体伸出的一条最长的突起的突起,用来用来传出出细胞体胞体产生的生的输出信号出信号,称之称之为轴突突;轴突末端形成突末端形成许多多细的分枝的分枝,叫做叫做神神经末梢末梢;每一条神每一条神经末末梢可以与其他神梢可以与其他神经元形成功能性接触元形成功能性接触,该接触部位称接触部位称为突触突触。所。所谓功功能性接触能性接触是指非永久性接触是指非永久性接触,它是神它是神经元之元之间信息信息传递的奥秘之的奥秘之处。第14页,讲稿共86张,创作于星期一15l一个神一个神经元把来自不

7、同元把来自不同树突的突的兴奋性或抑制性性或抑制性输入信号入信号(突突触后膜触后膜电位位)累加求和累加求和的的过程,称程,称为整合。考整合。考虑到到输入信号的影入信号的影响要持响要持续一段一段时间(毫秒毫秒级),),因此因此,神神经元的整合功能是一种元的整合功能是一种时空整合。当神空整合。当神经元的元的时空整合空整合产生的膜生的膜电位超位超过阈值电位位时,神神经元元处于于兴奋状状态,产生生兴奋性性电脉冲脉冲,并并经轴突突输出出;否否则,无无电脉冲脉冲产生生,处于于抑制状抑制状态。第15页,讲稿共86张,创作于星期一16图2 一种一种简化神化神经元元结构构 第16页,讲稿共86张,创作于星期一17

8、人工神经元模型人工神经元模型l每一个细胞处于两种状态。l突触联接有强度。l多输入单输出。l实质上传播的是脉冲信号,信号的强弱与脉冲频率成正比。图3 人工神经元的结构模型第17页,讲稿共86张,创作于星期一18l一般地,人工神经元的结构模型如图3所示。l它是一个多输入单输出的非线性阈值器件。其中 x1,x2,xn表示神经元的n个输入信号量;l w1,w2,wn表示对应输入的权值,它表示各信号源神经元与该神经元的连接强度;l U表示神经元的输入总和,它相应于生物神经细胞的膜电位,称为激活函数;y为神经元的输出;表示神经元的阈值。第18页,讲稿共86张,创作于星期一19于是,人工神于是,人工神经元的

9、元的输入入输出关系可描述出关系可描述为:函函数数y=f(U)称称为特特性性函函数数(亦亦称称作作用用、传递、激激活活、活活化化、转移函数移函数)。特性函数可以看作是神。特性函数可以看作是神经元的数学模型。元的数学模型。第19页,讲稿共86张,创作于星期一20 1.阈值型型 2.S型型 这类函数的函数的输入入输出特性多采用指数、出特性多采用指数、对数或双曲正数或双曲正切等切等S型函数表示。例如型函数表示。例如 S型特性函数反映了神型特性函数反映了神经元的非元的非线性性输出特性。出特性。常常见的特性函数有以下几种的特性函数有以下几种:第20页,讲稿共86张,创作于星期一21 3.3.分段分段线性型

10、性型神神经元的元的输入入输出特性出特性满足一定的区足一定的区间线性关系性关系,其特性函数表达其特性函数表达为 式中,式中,K、Ak均表示常量。均表示常量。第21页,讲稿共86张,创作于星期一22人工神经元模型人工神经元模型l以上三种特性函数的图像依次如下图中的(a)、(b)、(c)所示l神经细胞的输出对输入的反映。l典型的特性函数是非线性的。第22页,讲稿共86张,创作于星期一23基本原理基本原理网络结构网络结构l人脑神经网络:l人脑中约有亿个神经细胞l根据Stubbz的估计这些细胞被安排在约个主要模块内,每个模块上有上百个神经网络,每个网络约有万个神经细胞。l 如果将多个神经元按某种的拓扑结

11、构连接起来,就构成了神经网络。根根据据连接接的的拓拓扑扑结构构不不同同,神神经网网络可可分分为四四大大类:分分分分层层前前前前向向向向网网网网络络、反反馈前前向向网网络、互互连前前向向网网络、广广泛泛互互连网网络。第23页,讲稿共86张,创作于星期一24基本原理基本原理网络模型网络模型l分分层前向网前向网络:每层只与前层相联接 网络由若干层神经元组成,一般有输入层、中间层(又称隐层,可有一层或多层)和输出层,各层顺序连接;且信息严格地按照从输入层进,经过中间层,从输出层出的方向流动。第24页,讲稿共86张,创作于星期一25基本原理基本原理网络模型网络模型l反反馈前向网前向网络:输出层上存在一个

12、反馈回路,将信号反馈到输入层。而网络本身还是前向型的。反馈的结果形成封闭环路,具有反馈的单元称为隐单元,其输出称为内部输出。第25页,讲稿共86张,创作于星期一26基本原理基本原理网络模型网络模型l互互连前向网前向网络:外部看还是一个前向网络,内部有很多自组织网络在层内互连着。同一层内单元的相互连接使它们之间有彼此牵制作用。第26页,讲稿共86张,创作于星期一27基本原理基本原理网络模型网络模型l广泛互广泛互连网网络:所有计算单元之间都有连接,即网络中任意两个神经元之间都可以或可能是可达的。如:Hopfield网络、波尔茨曼机模型l反反馈型局部型局部连接网接网络:特例,每个神经元的输出只与其周

13、围的神经元相连,形成反馈网络。第27页,讲稿共86张,创作于星期一28基本原理基本原理 网络分类网络分类l分类l前向型(前馈型);l反馈型;l自组织竞争;l随机网络l其它第28页,讲稿共86张,创作于星期一29 具体来讲,神经网络至少可以实现如下功能:l数学上的映射逼近。通过一组映射样本(x1,y1)(x2,y2),(xn,yn),网络以自组织方式寻找输入与输出之间的映射关系:yi=f(xi)。l数据聚类、压缩。通过自组织方式对所选输入模式聚类。l联想记忆。实现模式完善、恢复,相关模式的相互回忆等。l优化计算和组合优化问题求解。利用神经网络的渐进稳定态,特别是反馈网络的稳定平衡态,进行优化计算

14、或求解组合优化问题的近似最优解。第29页,讲稿共86张,创作于星期一30l模式分类。现有的大多数神经网络模型都有这种分类能力。l概率密度函数的估计。根据给定的概率密度函数,通过自组织网络来响应在空间Rn中服从这一概率分布的一组向量样本X1,X2,Xk。第30页,讲稿共86张,创作于星期一31基本原理基本原理基本属性基本属性l基本属性:l非线性:l自然界的普遍特性l大脑的智慧就是一种非线性现象l人工神经元处于激活或抑制两种不同的状态,在数学上表现为一种非线性。l非局域性:l一个神经网络通常由多个神经元广泛连接而成l一个系统的整体行为不仅取决于单个神经元的特征,而且可能主要由单元之间的相互作用、相

15、互连接所决定l通过单元之间的大量连接模拟大脑的非局域性l联想记忆是非局域性的典型例子。第31页,讲稿共86张,创作于星期一32基本原理基本原理 基本属性基本属性l非定常性l人工神经网络具有自适应、自组织、自学习能力l神经网络不但处理的信息有各种各样,而且在处理信息的同时,非线性动力系统本身也在不断变化l经常采用迭代过程描写动力系统的演化过程。l非凸性:系统演化的多样性l一个系统的演化方向,在一定条件下,将取决于某个特定的状态函数,如能量函数,它的极值相应于系统比较稳定的状态l非凸性是指这种函数有多个极值,故系统具有多个较稳定的平衡态,这将导致系统演化的多样性。第32页,讲稿共86张,创作于星期

16、一33基本原理基本原理优缺点优缺点l评价l优点:并行性;分布存储;容错性;学习能力 l缺点:不适合高精度计算;学习问题没有根本解决,慢;目前没有完整的设计方法,经验参数太多。第33页,讲稿共86张,创作于星期一34神经网络学习神经网络学习l学学习(亦亦称称训练)是是神神经网网络的的最最重重要要特特征征之之一一。神神经网网络能能够通通过学学习,改改变其内部状其内部状态,使使输入入输出呈出呈现出某种出某种规律性。律性。l网网络学学习一一般般是是利利用用一一组称称为样本本的的数数据据,作作为网网络的的输入入(和和输出出),),网网络按按照照一一定定的的训练规则(又又称称学学习规则或或学学习算算法法)

17、自自动调节神神经元元之之间的的连接接强度度或或拓拓扑扑结构构,当当网网络的的实际输出出满足足期望的要求期望的要求,或者或者趋于于稳定定时,则认为学学习成功。成功。第34页,讲稿共86张,创作于星期一35神经网络学习神经网络学习1.1.1.1.学学学学习规则习规则 权值修正学派修正学派认为:神:神经网网络的学的学习过程就是不断程就是不断调整网整网络的的连接接权值,以,以获得期望的得期望的输出的出的过程。所以,学程。所以,学习规则就就是是权值修正修正规则。2.2.2.2.学学学学习习方法分方法分方法分方法分类类 从不同角度考从不同角度考虑,神,神经网网络的学的学习方法有不同的分方法有不同的分类。表

18、表9.19.1列出了常列出了常见的几种分的几种分类情况。情况。第35页,讲稿共86张,创作于星期一36神经网络学习神经网络学习表表1 1 神神经网网络学学习方法的常方法的常见分分类 第36页,讲稿共86张,创作于星期一37 ANN 人工神经网络人工神经网络l概述l基本原理l前向型神经网络lBP神经网络l自组织竞争神经网络l神经网络的应用l与人工智能原理的结合第37页,讲稿共86张,创作于星期一38前向型神经网络前向型神经网络l概述l最初称之为感知器。应用最广泛的一种人工神经网络模型,最要原因是有BP学习方法。l前向网络结构是分层的,信息只能从下一层单元传递到相应的上一层单元。上层单元与下层所有

19、单元相联接l特性函数可以是线性阈值的。第38页,讲稿共86张,创作于星期一39前向型神经网络前向型神经网络l单层感知器第39页,讲稿共86张,创作于星期一40前向型神经网络前向型神经网络l基本原理和结构极其简单l在实际应用中很少出现l采用阶跃函数作为特性函数l维空间可以明显表现其分类功能,但Minsky等揭示的致命弱点也一目了然。l关键是学习算法及网络设计方法l输出yi等于:(1)其中第40页,讲稿共86张,创作于星期一41前向型神经网络前向型神经网络单层感知器单层感知器l分类方法:l如果输入x有k个样本,xp,p=1,2,k,xRnl当将这些样本分别输入到单输出的感知器中,在一定的和下,输出

20、有两种可能+1或-1。l把样本xp看作为在n维状态空间中的一个矢量,则k个样本为输入空间的k个矢量l前向神经网络就是将n维空间分为SA、SB两个子空间,其分界线为n-1维的超平面。即用一个单输出的感知器通过调整参数及来达到k个样本的正确划分。第41页,讲稿共86张,创作于星期一42前向型神经网前向型神经网单层感知器单层感知器则存在一组权值wij使得公式(1)满足:称样本集为线性可分的,否则为线性不可分的。第42页,讲稿共86张,创作于星期一43前向型神经网前向型神经网单层感知器单层感知器l如:2维空间希望找到一根直线,把A,B两类样本分开,其分界线为:解有无数个。单层感知器只能解决线性可分类的

21、样本的分类问题。如样本不能用一个超平面分开,就会产生当年Minsky等提出的不可分问题如:异或问题。第43页,讲稿共86张,创作于星期一44+X1X2二二维输入感知器及其在状入感知器及其在状态空空间中的划分中的划分 第44页,讲稿共86张,创作于星期一45前向型神经网络前向型神经网络多层感知器l多层感知器 l多层感知器的输入输出关系与单层感知器完全相同。前一层的输出是下一层的输入。也被称为BP网络。第45页,讲稿共86张,创作于星期一46前向型神经网络前向型神经网络多层感知器l多层感知器 l采用BP算法学习时要求传递函数为有界连续可微函数如sigmoid函数。因此,网络可以用一个连续的超曲面(

22、而不仅仅是一个超平面)来完成划分输入样本空间的功能。l先求误差,用梯度下降的方法求误差的传递。从后往前算。第46页,讲稿共86张,创作于星期一47第47页,讲稿共86张,创作于星期一48前向型神经网络前向型神经网络多层感知器l多层感知器 ln层网络可以以n-1个超曲面构成一个符合曲面,弥补单层感知器的缺陷。l基于BP算法,依据大量样本通过逐步调整神经元之间的联接权重来构造网络。l理论上,多层前馈网络在不考虑结果规模的前提下,可以模拟任意的输出函数。第48页,讲稿共86张,创作于星期一49前向型神经网络前向型神经网络多层感知器l特点:l用非线性连续可微函数分类,结果为一种模糊概念。当输出f(u)

23、0时,其输出不一定为,而是一个0.5(有时只是0)的值,表示所得到的概率为多少。l应用最广泛的神经网络模型之一。第49页,讲稿共86张,创作于星期一50 ANN 人工神经网络人工神经网络l概述l基本原理l前向型神经网络lBP神经网络l自组织竞争神经网络l神经网络的应用l与人工智能原理的结合第50页,讲稿共86张,创作于星期一51BP 神经网络神经网络lBP(BackBP(BackPropagation)Propagation)网网络即误差反向传播网络是应用最广泛的一种神经网络模型。(1)BP网络的拓扑结构为分层前向网络;(2)神经元的特性函数为Sigmoid型(S型)函数,一般取为(3)输入为

24、连续信号量(实数);(4)学习方式为有导师学习;(5)学习算法为推广的学习规则,称为误差反向传播算法,简称BP学习算法。第51页,讲稿共86张,创作于星期一52BP 神经网络神经网络lBP算法的基本思想:l正向传播过程中,输入信号从输入层经隐单元层传向输出层,每一层的神经元状态只会影响到下一层神经元的输入,如果在输出层得不到期望的输出,则转入反向传播过程。l将误差信号沿原来的连接通路返回,通过修改各层神经元的连接权值,使得输出误差信号达到最小。l变量定义:lXX为输入向量,YY为网络输出向量;lWW(1)(1)、WW(2)(2)分别为输入层隐层、隐层输出层的权值矩阵l每层神经元的个数为:输入层

25、,NN个神经元;隐层,PP个神经元;输出层,MM个神经元。第52页,讲稿共86张,创作于星期一53第53页,讲稿共86张,创作于星期一54第54页,讲稿共86张,创作于星期一55第55页,讲稿共86张,创作于星期一56第56页,讲稿共86张,创作于星期一57第57页,讲稿共86张,创作于星期一58第58页,讲稿共86张,创作于星期一59第59页,讲稿共86张,创作于星期一60第60页,讲稿共86张,创作于星期一61网络训练函数lfunction teste,bestep,testouts,wh,wo,errorCurve=nnTrain(matrices,nrows,ninputs,nhidd

26、ens1,nhiddens2,noutputs,hrates,orates,moms,epochs,options)lmatrices:训练集合的样式,即输入-期望输出对。lnrows:样本集的列数,即学习样本的数目。lninputs,nhiddens1,nhiddens2,noutputs:输入层节点数;第一隐层节点数;第二隐层节点数(可以为空);输出层节点数。lhrates,orates:隐层、输出层单元的学习率。lmoms:训练过程激励速率。lepochs:最大训练过程的迭代数。loptions:函数使用过程的选项。第61页,讲稿共86张,创作于星期一62BP网络学习举例网络学习举例l例

27、例:设计一一个个BPBP网网络,对表表2 2所所示示的的样本本数数据据进行行学学习,使使学学成成的的网网络能能解解决决类似似的的模模式式分分类问题。设网网络的的输入入层有有三三个个节点点,隐层四四个个节点点,输出出层三三个个节点点,拓拓扑扑结构构如如下下图9 9所示。所示。表2 网络训练样本数据 输入输入输出输出X1 x2 x3Y1 y2 y30.3 0.8 0.10.7 0.1 0.30.6 0.6 0.61 0 00 1 0 0 0 1第62页,讲稿共86张,创作于星期一63BP网络学习举例网络学习举例图 BP网络举例 第63页,讲稿共86张,创作于星期一64l用样本数据按BP算法对该网络

28、进行训练,训练结束后,网络就可作为一种模式分类器使用。因为网络的输出向量(1,0,0)、(0,1,0)、(0,0,1)可以表示多种模式或状态。如可以分别表示凸、凹和直三种曲线,或者三种笔划,也可以表示某公司的销售情况:高峰、低谷和持平等等。l当然,要使网络有很好的模式分类能力,必须给以足够多的范例使其学习,本例仅是一个简单的示例。第64页,讲稿共86张,创作于星期一65神经网络模型神经网络模型l神神经网网络模型是一个在神模型是一个在神经网网络研究和研究和应用中用中经常提到的概念。所常提到的概念。所谓神神经网网络模型模型,它是关于一个神,它是关于一个神经网网络的的综合描述和整体概念,合描述和整体

29、概念,包括网包括网络的拓扑的拓扑结构、构、输入入输出信号出信号类型、信息型、信息传递方式、神方式、神经元特性函数、学元特性函数、学习方式、学方式、学习算法等等。算法等等。l截止目前,人截止目前,人们已已经提出了上百种神提出了上百种神经网网络模型模型,下表下表简介最介最著名的几种。著名的几种。第65页,讲稿共86张,创作于星期一66神经网络模型神经网络模型第66页,讲稿共86张,创作于星期一67神经网络模型神经网络模型第67页,讲稿共86张,创作于星期一68神经网络模型神经网络模型第68页,讲稿共86张,创作于星期一69神经网络模型神经网络模型l神神经网网络模型也可按其功能、模型也可按其功能、结

30、构、学构、学习方式等的不同方式等的不同进行分行分类。1.1.1.1.按学按学按学按学习习方式分方式分方式分方式分类类 神神经网网络的的学学习方方式式包包括括三三种种,有有导导师师学学学学习习、强化化学学习和和无无无无导导师师学学学学习习。按按学学习方方式式进行行神神经网网络模模型型分分类时,可可以以分分为相相应的的三三种种,即即有有有有导导师师学学学学习习网网网网络络、强化化学学习网网络及及无无无无导导师师学学学学习习网网网网络络。第69页,讲稿共86张,创作于星期一70神经网络模型神经网络模型 2.2.2.2.按网按网按网按网络结络结构分构分构分构分类类 神经网络的连接结构分为两大类,分层结

31、构与互连结构,分层结构网络有明显的层次,信息的流向由输入层到输出层,因此,构成一大类网络,即前前向向网网络。对于互连型结构网络,没有明显的层次,任意两处理单元之间都是可达的,具有输出单元到隐单元(或输入单元)的反馈连接,这样就形成另一类网络,称之为反反馈网网络。第70页,讲稿共86张,创作于星期一71神经网络模型神经网络模型 3.3.3.3.按网按网按网按网络络的状的状的状的状态态分分分分类类 在神经网络模型中,处理单元(即神经元)的状态有两种形式:连续时间变化状态、离散时间变化状态。如果神经网络模型的所有处理单元状态能在某一区间连续取值,这样的网络称为连续型型网网络;如果神经网络模型的所有处

32、理单元状态只能取离散的二进制值0或1(或-1、+1),那么称这种网络为离散型网离散型网络。典型的Hopfield网络同时具有这两类网络,分别称为连续型Hopfield网络和离散型Hopfield网络。另外,还有输出为二进制值0或1、输入为连续值的神经网络模型,如柯西机模型。第71页,讲稿共86张,创作于星期一72神经网络模型神经网络模型4.4.4.4.按网按网按网按网络络的活的活的活的活动动方式分方式分方式分方式分类类 确定神经网络处理单元的状态取值有两种活动方式,一种是由确定性输入经确定性作用函数,产生确定性的输出状态;另一种是由随机输入或随机性作用函数,产生遵从一定概率分布的随机输出状态。

33、具有前一种活动方式的神经网络,称为确确定定性性网网络。已有的大部分神经网络模型均属此类。而后一种活动方式的神经网络,称为随随机机性性网网络。随机性网络的典型例子有:波尔茨曼机、柯西机和高斯机等。第72页,讲稿共86张,创作于星期一73 ANN 人工神经网络人工神经网络l概述l基本原理l前向型神经网络l自组织竞争神经网络l神经网络的应用l与人工智能原理的结合lBP神经网络第73页,讲稿共86张,创作于星期一74自组织竞争神经网络自组织竞争神经网络l概述l在实际的神经网络中,存在一种侧抑制的现象。即一个细胞兴奋后,通过它的分支会对周围其他神经细胞产生抑制。这种侧抑制在脊髓和海马中存在,在人眼的视网

34、膜中也存在。第74页,讲稿共86张,创作于星期一75自组织竞争神经网络自组织竞争神经网络l概述l这种抑制使神经细胞之间出现竞争,一个兴奋最强的神经细胞对周围神经细胞的抑制也强。虽然一开始各个神经细胞都处于兴奋状态,但最后是那个输出最大的神经细胞“赢”,而其周围的神经细胞“输”了。l胜者为王。小猫 第75页,讲稿共86张,创作于星期一76自组织竞争神经网络自组织竞争神经网络l概述l自组织竞争神经网络是在“无师自通”的现象的基础上生成的。l人类等生物的生长过程。第76页,讲稿共86张,创作于星期一77自组织竞争神经网络自组织竞争神经网络l结构:层内细胞之间互联,在各个神经细胞中加入自反馈,相互作用

35、,输出y为:系统稳定时“胜者为王”。此时赢者的权向量与输入向量的欧氏距离最小。此距离为:第77页,讲稿共86张,创作于星期一78自组织竞争神经网络自组织竞争神经网络l自组织映射模型l自组织映射模型是由Kohonen提出来的。模型是以实际神经细胞中的一种特征敏感的细胞为模型的。各个细胞分别对各种输入敏感,可以代表各种输入,反映各种输入样本的特征。如果在二维空间上描述这些细胞,则,功能相近的细胞聚在一起,靠得比较近。功能不同的离得比较远。l网络形成过程:开始是无序的,当输入样本出现后各个细胞反映不同,强者依照“胜者为王”的原则,加强自己的同时对周围细胞进行压抑。使其对该种样本更加敏感,也同时对其他

36、种类的样本更加不敏感。此过程的反复过程中,各种不同输入样本将会分别映射到不同的细胞上。第78页,讲稿共86张,创作于星期一79Kohonen网络的结构网络的结构 x2x1输入层输出层第79页,讲稿共86张,创作于星期一80Nc(t)的形状和变化情况的形状和变化情况 Nc(t0)Nc(t1)Nc(t2)Nc(t0)Nc(t1)Nc(t2)第80页,讲稿共86张,创作于星期一81自组织竞争神经网络自组织竞争神经网络l特点:l网络中的权值是输入样本的记忆。如果输出神经元j与输入n个神经元之间的联接用wj表示,对应其一类样本x输入,使yj达到匹配最大。那么wj通过学习后十分靠近x,因此,以后当x再次输

37、入时,yj这个神经元必定会兴奋,yj是x的代表。.第81页,讲稿共86张,创作于星期一82自组织竞争神经网络自组织竞争神经网络.l网络学习时对权的调整不只是对兴奋的那个细胞所对应的权进行,而对其周围Nc区域内的神经元同时进行调整。因此,对于在Nc内的神经元可以代表不只是一个样本x,而是与x比较相近的样本都可以在Nc内得到反映。因此,这种网络对于样本的畸变和噪声的容差大。(调整区域函数有。)各种函数l网络学习的结果是:比较相近的输入样本在输出平面上映射的位置也比较接近。具有自然聚类的效果。第82页,讲稿共86张,创作于星期一83 ANN 人工神经网络人工神经网络l概述l基本原理l前馈型人工神经元

38、网络lBP神经网络l自组织竞争人工神经网络l神经网络的应用l与人工智能原理的结合第83页,讲稿共86张,创作于星期一84神经网络的应用神经网络的应用lANN是一门交叉学科,涉及心理学、生理学、生物学、医学、数学、物理学、计算机科学等l应用几乎遍及自然科学的各个领域l应用最多的是模式识别、通讯、控制、信号处理等方面。第84页,讲稿共86张,创作于星期一85神经网络的应用神经网络的应用l在模式识别中的基本步骤:1、根据应用背景选择网络结构2、数据预处理、构造训练集3、选择适合的训练函数,训练ANN4、输入未知样本进行识别第85页,讲稿共86张,创作于星期一感感谢谢大大家家观观看看第86页,讲稿共86张,创作于星期一

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 生活休闲 > 资格考试

本站为文档C TO C交易模式,本站只提供存储空间、用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。本站仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知得利文库网,我们立即给予删除!客服QQ:136780468 微信:18945177775 电话:18904686070

工信部备案号:黑ICP备15003705号-8 |  经营许可证:黑B2-20190332号 |   黑公网安备:91230400333293403D

© 2020-2023 www.deliwenku.com 得利文库. All Rights Reserved 黑龙江转换宝科技有限公司 

黑龙江省互联网违法和不良信息举报
举报电话:0468-3380021 邮箱:hgswwxb@163.com