MATLAB学习笔记.doc

上传人:豆**** 文档编号:17420209 上传时间:2022-05-24 格式:DOC 页数:10 大小:161.50KB
返回 下载 相关 举报
MATLAB学习笔记.doc_第1页
第1页 / 共10页
MATLAB学习笔记.doc_第2页
第2页 / 共10页
点击查看更多>>
资源描述

《MATLAB学习笔记.doc》由会员分享,可在线阅读,更多相关《MATLAB学习笔记.doc(10页珍藏版)》请在得力文库 - 分享文档赚钱的网站上搜索。

1、【精品文档】如有侵权,请联系网站删除,仅供学习与交流MATLAB学习笔记.精品文档.关于协方差的计算A=1 4 3;2 5 6;7 6 9cov(A)运算结果A = 1 4 3 2 5 6 7 6 9ans = 10.3333 3.0000 9.0000 3.0000 1.0000 3.0000 9.0000 3.0000 9.0000关于MATLAB的这个程序我就不说些什么了,我要说的是这个协方差是怎么算的,以协方差矩阵第一个元素为例,它是怎么得出来的? 由于你在MATLAB中得到的帮助是如下这样的:(给下面英文稍注释一下,如果X是向量,则返回方差,如果是矩阵,那么X的行是观察值,列是变量,

2、cov(X)是协方差矩阵。) help cov cov Covariance matrix. cov(X), if X is a vector, returns the variance. For matrices, where each row is an observation, and each column a variable, cov(X) is the covariance matrix. DIAG(cov(X) is a vector of variances for each column, and SQRT(DIAG(cov(X) is a vector of standa

3、rd deviations. cov(X,Y), where X and Y are matrices with the same number of elements, is equivalent to cov(X(:) Y(:). cov(X) or cov(X,Y) normalizes by (N-1) if N1, where N is the number of observations. This makes cov(X) the best unbiased estimate of the covariance matrix if the observations are fro

4、m a normal distribution. For N=1, cov normalizes by N. cov(X,1) or cov(X,Y,1) normalizes by N and produces the second moment matrix of the observations about their mean. cov(X,Y,0) is the same as cov(X,Y) and cov(X,0) is the same as cov(X). The mean is removed from each column before calculating the

5、 result. Class support for inputs X,Y: float: double, single See also corrcoef, var, std, mean. Overloaded methods: gpuArray/cov fints/cov xregtwostage/cov xregmultilin/cov xregmodel/cov xreglinear/cov xregcovariance/cov localsurface/cov Reference page in Help browser doc cov好吧,从以上英文中估计你也了解不到太多信息,还是

6、来一个例子才能说明问题,X=2,4,6cov(X)运行结果X = 2 4 6ans = 4对于该向量X,方差 而对于A=1 4 3;2 5 6;7 6 9cov(A)运算结果A = 1 4 3 2 5 6 7 6 9ans = 10.3333 3.0000 9.0000 3.0000 1.0000 3.0000 9.0000 3.0000 9.0000我就仅对协方差矩阵的前两个元素和的计算加以说明 此处可计算得其中与可计算得其余协方差中个元素值计算依次类推。下面讲一下cov(X,Y)的计算吧。当X和Y都是同维矩阵时,cov(X,Y)的算法神经网络控制%m221.m 神经元的10个作用函数 +

7、导数clear all;close all;%-神经元的12个作用函数 + 导数x=-5:0.01:5;y1=poslin(x) ;%正线性函数yy1=dposlin(x,y1) ;% 导数y2=purelin(x) ;%线性函数yy2=dpurelin(x,y2) ;% 导数x1=-2 2;x2=0 0;x3=-5 5;y01=0 0;y02=-2 2; %画坐标轴用figure(1); %画图并绘制x,y轴。subplot(221),plot(x,y1,r,linewidth,2);line(x1,y01);line(x2,y02); ylabel(y1=f(x);title(正线性函数)

8、;axis(-2 2 -2 2);subplot(222),plot(x,y2,r,linewidth,2);line(x1,y01);line(x2,y02); ylabel(y2=f(x);title(线性函数);axis(-2 2 -2 2); subplot(223),plot(x,yy1,r,linewidth,2);line(x1,y01);line(x2,y02); ylabel(yy1);xlabel(x);title(正线性函数导数);axis(-2 2 -1.5 1.5);subplot(224),plot(x,yy2,r,linewidth,2);line(x1,y01)

9、;line(x2,y02); ylabel(yy2);xlabel(x);title(线性函数导数);axis(-2 2 -1.5 1.5),pause%-神经元的34个作用函数 + 导数 y3=satlin(x) ;%饱和线性函数yy3=dsatlin(x,y3) ;% 导数y4=satlins(x) ;%对称饱和线性函数yy4=dsatlins(x,y4) ;% 导数 figure(2);subplot(221),plot(x,y3,r,linewidth,2);line(x1,y01);line(x2,y02); ylabel(y3=f(x);title(饱和线性函数);axis(-2

10、2 -2 2);subplot(222),plot(x,y4,r,linewidth,2);line(x1,y01);line(x2,y02); ylabel(y4=f(x);title(对称饱和线性函数);axis(-2 2 -2 2); subplot(223),plot(x,yy3,r,linewidth,2);line(x1,y01);line(x2,y02); ylabel(yy3);xlabel(x);title(饱和线性函数导数);axis(-2 2 -1.5 1.5);subplot(224),plot(x,yy4,r,linewidth,2);line(x1,y01);lin

11、e(x2,y02); ylabel(yy4);xlabel(x);title(对称饱和线性函数导数); axis(-2 2 -1.5 1.5),pause %-神经元的56个作用函数y5=hardlim(x) ;%非对称阶跃函数yy5=dhardlim(x,y5) ;% 导数y6=hardlims(x) ;%对称阶跃函数yy6=dhardlim(x,y6) ;% 导数figure(3);subplot(221),plot(x,y5,r,linewidth,2);line(x3,y01);line(x2,y02); ylabel(y5=f(x);title(非对称阶跃函数);axis(-5 5

12、-1.5 1.5);subplot(222),plot(x,y6,r,linewidth,2);line(x3,y01);line(x2,y02); ylabel(y6=f(x);title(对称阶跃函数);axis(-5 5 -1.5 1.5);subplot(223),plot(x,yy5,r,linewidth,2);line(x3,y01);line(x2,y02); ylabel(yy5);xlabel(x);title(非对称阶跃函数导数);axis(-5 5 -1.5 1.5);subplot(224),plot(x,yy6,r,linewidth,2);line(x3,y01)

13、;line(x2,y02); ylabel(yy6);xlabel(x);title(对称阶跃函数导数); axis(-5 5 -1.5 1.5),pause%-神经元的78个作用函数 y7=logsig(x); %非对称Sigmoid函数yy7=dlogsig(x,y7) ;% 导数y8=tansig(x) ;%对称Sigmoid函数yy8=dtansig(x,y8) ;% 导数figure(4);subplot(221),plot(x,y7,r,linewidth,2);line(x3,y01);line(x2,y02); ylabel(y7=f(x);title(非对称Sigmoid函数

14、);axis(-5 5 -1.5 1.5);subplot(222),plot(x,y8,r,linewidth,2);line(x3,y01);line(x2,y02); ylabel(y8=f(x);title(对称Sigmoid函数);axis(-5 5 -1.5 1.5);subplot(223),plot(x,yy7,r,linewidth,2);line(x3,y01);line(x2,y02); ylabel(yy7);xlabel(x);title(非对称Sigmoid函数导数);axis(-5 5 -1.5 1.5);subplot(224),plot(x,yy8,r,lin

15、ewidth,2);line(x3,y01);line(x2,y02); ylabel(yy8);xlabel(x);title(对称Sigmoid函数导数); axis(-5 5 -1.5 1.5),pause %-神经元的910个作用函数 + 导数 y9=radbas(x) ;%RBF函数yy9=dradbas(x,y9) ;% 导数y10=tribas(x) ;%三角基函数yy10=dtribas(x,y10) ;% 导数 figure(5);subplot(221),plot(x,y9,r,linewidth,2);line(x3,y01);line(x2,y02); ylabel(y

16、9=f(x);title(高斯RBF函数);axis(-5 5 -1.5 1.5);subplot(222),plot(x,y10,r,linewidth,2);line(x3,y01);line(x2,y02); ylabel(y10=f(x);title(三角基函数);axis(-5 5 -1.5 1.5);subplot(223),plot(x,yy9,r,linewidth,2);line(x3,y01);line(x2,y02); ylabel(yy9);xlabel(x);title(高斯RBF函数导数);axis(-5 5 -1.5 1.5);subplot(224),plot(

17、x,yy10,r,linewidth,2);line(x3,y01);line(x2,y02); ylabel(yy10);xlabel(x);title(三角基函数导数); axis(-5 5 -1.5 1.5),pause相应的运行结果如下图BP神经网络模型与学习算法一,什么是BPBP(Back Propagation)网络是1986年由Rumelhart和McCelland为首的科学家小组提出,是一种按误差逆传播算法训练的多层前馈网络,是目前应用最广泛的神经网络模型之一。BP网络能学习和存贮大量的输入-输出模式映射关系,而无需事前揭示描述这种映射关系的数学方程。它的学习规则是使用最速下降

18、法,通过反向传播来不断调整网络的权值和阈值,使网络的误差平方和最小。BP神经网络模型拓扑结构包括输入层(input)、隐层(hide layer)和输出层(output layer)。我们现在来分析下这些话: “是一种按误差逆传播算法训练的多层前馈网络”BP是后向传播的英文缩写,那么传播对象是什么?传播的目的是什么?传播的方式是后向,可这又是什么意思呢。传播的对象是误差,传播的目的是得到所有层的估计误差,后向是说由后层误差推导前层误差:即BP的思想可以总结为利用输出后的误差来估计输出层的直接前导层的误差,再用这个误差估计更前一层的误差,如此一层一层的反传下去,就获得了所有其他各层的误差估计。

19、“BP神经网络模型拓扑结构包括输入层(input)、隐层(hide layer)和输出层(output layer)”我们来看一个最简单的三层BP: “BP网络能学习和存贮大量的输入-输出模式映射关系,而无需事前揭示描述这种映射关系的数学方程。”BP利用一种称为激活函数来描述层与层输出之间的关系,从而模拟各层神经元之间的交互反应。激活函数必须满足处处可导的条件。那么比较常用的是一种称为S型函数的激活函数:那么上面的函数为什么称为是S型函数呢:我们来看它的形态和它导数的形态:p.s. S型函数的导数:神经网络的学习目的:希望能够学习到一个模型,能够对输入输出一个我们期望的输出。学习的方式:在外界

20、输入样本的刺激下不断改变网络的连接权值学习的本质:对各连接权值的动态调整学习的核心:权值调整规则,即在学习过程中网络中各神经元的连接权变化所依据的一定的调整规则。二,有监督的BP模型训练过程1. 思想有监督的BP模型训练表示我们有一个训练集,它包括了: input X 和它被期望拥有的输出 output Y所以对于当前的一个BP模型,我们能够获得它针对于训练集的误差所以BP的核心思想就是:将输出误差以某种形式通过隐层向输入层逐层反传,这里的某种形式其实就是:也就是一种 信号的正向传播 - 误差的反向传播的过程:2.具体这里解释下根据误差对权值的偏导数来修订权值:RBF神经网络径向基函数网络是一

21、种两层前向型神经网络,包含一个具有径向基函数神经元的隐层和一个具有线性神经元的输出层。help radbas设计一个径向基函数网络,网络有两层,隐层为径向基神经元,输出层为线性神经元%绘制隐层神经元径向基传递函数的曲线p=-3:.1:3;a=radbas(p);plot(p,a)title(径向基传递函数)xlabel(输入向量p)%隐层神经元的权值、阈值与径向基函数的位置和宽度有关,只要隐层神经元数目、权值、阈值正确,可逼近任意函数%例如a2=radbas(p-1.5);a3=radbas(p+2);a4=a+a2*1.5+a3*0.5;plot(p,a,b,p,a2,g,p,a3,r,p,a4,m-)title(径向基传递函数权值之和)xlabel(输入p);ylabel(输出a);生成图:

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 教育专区 > 小学资料

本站为文档C TO C交易模式,本站只提供存储空间、用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。本站仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知得利文库网,我们立即给予删除!客服QQ:136780468 微信:18945177775 电话:18904686070

工信部备案号:黑ICP备15003705号-8 |  经营许可证:黑B2-20190332号 |   黑公网安备:91230400333293403D

© 2020-2023 www.deliwenku.com 得利文库. All Rights Reserved 黑龙江转换宝科技有限公司 

黑龙江省互联网违法和不良信息举报
举报电话:0468-3380021 邮箱:hgswwxb@163.com