神经网络基本概念.doc

上传人:一*** 文档编号:577907 上传时间:2018-11-01 格式:DOC 页数:10 大小:379.50KB
返回 下载 相关 举报
神经网络基本概念.doc_第1页
第1页 / 共10页
神经网络基本概念.doc_第2页
第2页 / 共10页
点击查看更多>>
资源描述

《神经网络基本概念.doc》由会员分享,可在线阅读,更多相关《神经网络基本概念.doc(10页珍藏版)》请在得力文库 - 分享文档赚钱的网站上搜索。

1、二神经网络控制2.1 神经网络基本概念一. 生物神经元模型:P7生物神经元,也称作神经细胞,是构成神经系统的基本功能单元。虽然神经元的形态有极大差异,但基本结构相似。本目从信息处理和生物控制的角度,简述其结构和功能。1. 神经元结构神经元结构如图 21 所示图 211) 细胞体:由细胞核、细胞质和细胞膜等组成。2) 树突:胞体上短而多分支的突起,相当于神经元的输入端,接收传入的神经冲动。3) 轴突:胞体上最长枝的突起,也称神经纤维。端部有很多神经末梢,传出神经冲动。4) 突触:是神经元之间的连接接口,每一个神经元约有 10410 6个突触,前一个神经元的轴突末梢称为突触的前膜,而后一个神经元的

2、树突称为突触的后膜。一个神经元通过其轴突的神经末梢经突触,与另一个神经元的树突连接,以实现信息传递。由于突触的信息传递是特性可变的,随着神经冲动传递方式的变化,传递作用强弱不同,形成了神经元之间连接的柔性,称为结构的可塑性。5) 细胞膜电位:神经细胞在受到电的、化学的、机械的刺激后能产生兴奋,此时细胞膜内外由电位差,称为膜电位。其电位膜内为正,膜外为负。2. 神经元功能1) 兴奋与抑制:传入神经元的冲动经整和后使细胞膜电位提高,超过动作电位的阈值时即为兴奋状态,产生神经冲动,由轴突经神经末梢传出。传入神经元的冲动经整和后使细胞膜电位降低,低于阈值时即为抑制状态,不产生神经冲动。2) 学习与遗忘

3、:由于神经元结构的可塑性,突触的传递作用可增强与减弱,因此神经元具有学习与遗忘的功能。 二人工神经元模型 ,P96人工神经元是对生物神经元的一种模拟与简化。它是神经网络的基本处理单元。图22 显示了一种简化的人工神经元结构。它是一个多输入单输出的非线形元件。图 22 )(ixf i 其输入、输出的关系可描述为21njijii QXWI1)(fyii其中 (j=1、2、n)是从其他神经元传来的输入信号;iX表示从神经元 j 到神经元 i 的连接权值; ijW为阈值;iQf(.)称为激发函数或作用函数。有时为了方便起见,常把 也看成是恒等于 1 的输入 的权值,这时(21 式)的和iQ0X式可写成

4、 22njjiiXWI0其中 ,0ii1输出激发函数 f(.)又称为变换函数,它决定神经元(节点)的输出。f(.)函数一般具有线性特性。图 23 表示了几种常见的激发函数,分述如下。(1) 阈值型函数当 取 0 或 1 时, 为图 23(a)所示的阶跃函数:iy)(If2-3抑 制 状 态兴 奋 状 态0,)(IIf当 取1 或 1 时, 为图 23(b)所示的 函数(符号函数)iy)(If sign2-40,)(IfIsign(2) 饱和型函数:图 23(c)2-5kIkIIf 1,1,)((3)双曲函数:图 2-3(d)2-6)tanh()(IIf(4)S 型函数:图 2-3(e)神经元的

5、状态与输入作用之间的关系是在(0,1)内连续取值的单调可微函数,称为函数,简称为 S 型函数:sigmord图 23(e) 0 Ie1)I(f当 趋于无穷时,S 型曲线趋于阶跃函数,通常情况下, 取值为 1。 0 2-7IIf/)(对称型 S 函数:可微,可表示为 图 2-3(f) 图 23(f)0 2-8IeIf1)( (5)高斯函数 图 2-3(g) (c=0 时)在径向基函数(Radial Basis Fnnetion, RBF)构成的神经元网络中,神经元的结构可用高斯函数描述:2-92/)(exIf( 1) 一 维 高 斯 RBF 自 变 量u、 中 心c是 一 维 , 则 有 22)

6、(21exp cuR图 (a):1 51 0u, 左 高 斯 RBF:1,5 c; 右 高 斯 :3,2 c。 图 23(g)三人工神经网络模型 98 页人工神经网络是以工程技术手段来模拟人脑神经网络的结构与特征的系统。利用人工神经元可以构成各种不同拓扑结构的神经网络,它是生物神经网络的一种模拟和近似。就神经网络的主要连接型式而言,目前已有数十种不同的神经网络模型,其中前馈型网络和反馈型网络是两种典型的结构模型。(1) 前馈型神经网络又称前向网络(Feedforward NN) 。如图 2-4 可示,神经元分层排列,有输入层,隐层(亦称中间层,可有若干层)和输出层,每一层的神经元只接受前一层神

7、经元的输入。图 24 u y 从学习的观点来看,前馈网络是一种强有力的学习系统,其结构简单而易于编程;从系统的观点来看,前馈网络是静态非线性映射,通过简单非线性处理单元的复合映射,可获得复杂的非线性处理能力。但从计算的观点看,缺乏丰富的动力学行为。大部分前馈网络都是学习网络,它们的分类能力和模式识别能力一般都强于反馈网络,典型的前馈网络有感知器网络,BP 网络等。1、径向基函数神经网络(RBF 型)径向基函数(RBF)神经网络,是具有单隐层的三层前馈网络,结构见图 2-6-1。由于它模拟了人脑中局部调整、相互覆盖接收域的神经网络结构,因此,是一种局部逼近网络,已证明它能以任意精度逼近任一连续函

8、数。输入层 隐层 输出层节点节点节点图 RBF神经网络u yq(2) 反馈型神经网络(Feedback NN)结构如图 2-5 所示。若总节点(神经元)数为 N。则每个节点有 N个输入和一个输出,也就是说,所有的节点都是一样的,它们之间都可相互连接。反馈神经网络是一种反馈动力学系统,它需要工作一段时间才能达到稳定。Hopfield 神经网络是反馈网络中最简单且广泛的模型,它具有联想记忆(ConternAddressible Memory,CAM)的功能,如果将 Lyapunov 函数定义为寻优函数,Hopfield神经网络还可以用来解决快速寻优问题。图 25(a) 结 构 示 意 图 2、局部

9、递归(反馈)型 )1(ty )(tu )(tcy )(to 基本Elman网络改进型Elman网络局部递归网络外时延反馈型 )(ty )(ntymu 多 层 前 馈 网 络 )(tu 1z1z 1z 1 四、人工神经网络学习方法学习方法是体现人工神经网络智能特征的主要标志,离开了学习算法,人工神经网络就失去了诱人的自适性,自组织和自学习的能力。目前,神经网络的学习方法有多种,按有无导师来分,可分为有教师学习(Sperrised Learning) 、无教师学习(Unsperrised Learning)和再励学习( Reinforcement Learning)等几大类。在有教师的学习的学习方

10、式中,网络的输出和期望的输出(即教师信号)进行比较,然后根据两者之间的差异调整网络的权值,最终使差异变小。在无教师的学习方式中,输入模式进入网络后,网络按照一预先设定的规则(如竞争规则)自动调整权值,使网络最终具有模式分类等功能。再励学习是介于上述两者之间的一种学习方式。下面介绍神经网络中常用的两种最基本的学习方法。1Hebb 学习规则Hebb 学习规则是一种联想式学习方法。联想是人脑形象思维过程的一种表现形式。例如在空间和时间上相互接近的事物间,在性质上相似(或相反)的事物都容易在人脑中引起联想。生物学家 D.O.Hebbian 基于对生物学和心理学的研究,提出了学习行为的突触联系和神经群理

11、论。认为突触前与突触后二者同时兴奋,即两个神经元同时处于激发状态时,它们之间的连接强度将得到加强,这一论述的数学描述被称为 Hebb 学习规则,即Wi j (k+1)= Wi j (k)+W i j(k)=Wi j(k)+ Ii Ij其中,W i j (k)为连接从神经元 i 到神经元 j 的当前权值。Ii ,I j 为神经元的激活水平。Hebb 学习规则是一种无教师的学习方法,它只根据神经元连接间的激活水平改变权值,因此这种方法又称为相关学习或并联学习。当神经元由式(21)描述时,即Ii = W i j Xj jyi=f(Ii)=1/(1+ eIi)Hebb 学习规则可写成如下:Wij(k+

12、1)= Wij(k)+ YiYj 0另外,根据神经元状态变化来调整权值的 Hebb 学习方法称为微分 Hebb 学习方法,可描述为:Wij(k+1)= Wij(k)+ Yik)Yi(k1) Yj(k) Yj(k1) 2-102Delta()学习规则假设下列误差准则函数E= = E 2-1112)(ppyd1p其中,d p 代表期望的输出(教师信号) ;yp =f(wx )为网络的实际输出;w 为网络的所有权值组成的向量:pW=(W W .W )01nxp 为输入模式:X =(X X X )p01ppnT训练样本数 p=1,2,3,.,p现在的问题是如何调整权值 W,使准则函数最小。可用梯度下降

13、法来求解,其基本思想是误差 E 的负梯度方向不断修正 W 值,直到 E 达到最小,这种方法的数学表达式为W =ii= 2-13iEp1i其中 E =p221)(pyd用 表示 WX ,则有pp= =(d y ) f ( ) XiWpyipwpipWi 的修正规则为W = f ( ) Xi(1ppydpi上式称为 学习规则,又称为误差修正规则。定义误差传播函数 为:= = 2-24pEpy 规则实现了 E 的梯度下降,因此使误差函数达到最小值。但 学习规则只适用于线性可分函数,无法用于多层网络。BP 网络的学习算法称为 BP 算法,是在 规则基础上发展起来的,可在多层网络上有效学习。从上述的两种学习规则不难看出,要使人工神经网络的知识结构变化,即使神经元网络的结合模式变化,这同把连接权向量用什么方法变化是等价的。所以,所谓神经网络的学习,目前主要是指通过一定的学习算法实现对突触结合强度(权值)的调整,使其达到具有记忆、识别、分类、信息处理和问题优化求解算法功能,这是一个正在发展中的研究课题。

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 教育专区 > 教案示例

本站为文档C TO C交易模式,本站只提供存储空间、用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。本站仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知得利文库网,我们立即给予删除!客服QQ:136780468 微信:18945177775 电话:18904686070

工信部备案号:黑ICP备15003705号-8 |  经营许可证:黑B2-20190332号 |   黑公网安备:91230400333293403D

© 2020-2023 www.deliwenku.com 得利文库. All Rights Reserved 黑龙江转换宝科技有限公司 

黑龙江省互联网违法和不良信息举报
举报电话:0468-3380021 邮箱:hgswwxb@163.com