参数估计问题.pdf

上传人:asd****56 文档编号:70321501 上传时间:2023-01-19 格式:PDF 页数:65 大小:1.85MB
返回 下载 相关 举报
参数估计问题.pdf_第1页
第1页 / 共65页
参数估计问题.pdf_第2页
第2页 / 共65页
点击查看更多>>
资源描述

《参数估计问题.pdf》由会员分享,可在线阅读,更多相关《参数估计问题.pdf(65页珍藏版)》请在得力文库 - 分享文档赚钱的网站上搜索。

1、回顾 参数估计 将类条件概率密度未知类条件概率密度未知转化为较简单的参数未知参数未知 参数估计方法 最大似然估计 贝叶斯估计 最大似然估计 似然函数似然函数 对数似然函数对数似然函数 似然方程似然方程 对数似然方程对数似然方程回顾 高斯情况回顾 贝叶斯估计的基本思路 高斯情况 递归的贝叶斯学习(|)(|)(|)pDppD dxx(|)()(|)(|)()p DppDp Dpd1(|)(|)nkkp Dp xCh 04.参数模型Part 1 隐马尔可夫模型马尔可夫链 状态状态 t时刻的状态 长度为T的离散时间上的状态序列例如:转移概率转移概率(矩阵)为从状态到的转移概率,1,2,iiij马尔可夫

2、链 状态转移图马尔可夫链 j-阶马尔可夫过程阶马尔可夫过程 下一时刻为某个状态的概率仅与最近的j个状态有关 一阶马尔可夫过程一阶马尔可夫过程 任一时刻为某状态的概率仅与上一时刻的状态相关仅与最近的j个状态有关仅与上一个状态有关隐马尔可夫模型 隐马尔可夫模型隐马尔可夫模型(Hidden Markov Model,缩写为,缩写为HMM)状态不可见不可见 在t时刻,隐藏的状态以一定的概率激发出可见的符号可见的符号,其取值表示为 长度为T的离散时间上的可见符号序列例如:观察到可见符号的概率(1),(2),()Txxx TX6511523,v v v v v vX()|()jkkjbP x tvt1jk

3、kb()x t123,v v v 隐马尔可夫模型 状态转移图一个例子 盒子编号不可见 每次从任一盒子中取出一个小球 隐藏状态隐藏状态:盒子编号 可见符号可见符号:小球 盒子i中取出各种小球的概率 得到某个特定小球序列的概率?离散HMM的符号表示隐藏状态集隐藏状态集可见符号集可见符号集状态序列状态序列观察序列观察序列状态转移概率状态转移概率观察到可见符号的概率观察到可见符号的概率初始状态概率初始状态概率完整的完整的HMM参数向量参数向量HMM三大核心问题 估值问题估值问题 已知已知 观察到特定符号序列X HMM模型参数向量 求求 似然函数 解码问题解码问题 已知已知 观察到特定符号序列X HMM

4、模型参数向量 求 最有可能产生X的隐状态序列HMM三大核心问题 学习(或参数估计)问题学习(或参数估计)问题 已知已知 观察到特定符号序列X 求求 模型参数向量的估计值例如:ML估计估值问题 直接计算直接计算HMM模型产生可见长度为T的符号序列X的概率其中,表示状态的初始概率假设HMM中有c个隐状态,则计算复杂度为!例如:c=10,T=20,基本运算1021次!(1)()TO c T估值问题 解决方案 递归计算t时刻的计算仅涉及上一步的结果,以及,和 HMM向前算法向前算法 HMM向后算法向后算法()t(1)t()x t估值问题 HMM向前算法向前算法定义:t时刻在状态时刻在状态i,并且已观察

5、到,并且已观察到x(1),x(2),x(t)的概率的概率 初始化初始化对每一个隐状态i,计算 递归递归for t=2 to T对每一个隐状态j,计算end 最后最后2()()TO c TO c T?计算复杂度计算复杂度()it估值问题 HMM向前算法向前算法估值问题 HMM向后算法向后算法(向前算法的(向前算法的时间反演时间反演版本)版本)定义:t时刻在状态时刻在状态i,并且已,并且已逆向逆向观察到观察到x(T),x(T-1),x(t)的概率的概率 初始化初始化对每一个隐状态i,计算(假设T时刻每个状态的概率相同)递归递归for t=T-1 to 1对每一个隐状态i,计算end 最后最后2()

6、()TO c TO c T?计算复杂度计算复杂度()()ix TibTc()it()1()(1)ciijjix tjtatb1(|)(1)ciiiP X 例子 HMM为:吸收状态吸收状态,即序列结束时的必然状态。该状态产生唯一的特殊可见符号v0,表示HMM过程结束例子 已知t=0时状态为,即 现观测到的序列为 计算HMM产生这个特定观测序列的概率?10101112123130.2,0.3,0.1,0.4aaaa41320V,v v v v例子 解HMM用于分类 为每一个类别建立一个HMM 每个HMM有自己的参数向量,该参数向量可以从属于类别i的样本中学习(估计)得到。贝叶斯决策 决策结果i1(

7、|)()(|)(|)()iiiciiiPPPPPx xx*argmax(|)()iiiiPPx HMM用于语音识别“从左到右”(left-to-right)HMM 为每个单词发音建立一个HMM,其参数为 用向前算法计算发音序列X的类条件概率取决于语言本身和上下文语义 用贝叶斯公式计算X的后验概率 最大后验概率指示语音内容发音“viterbi”的“从左到右”HMM(|)iP X i()iP(|)iP X解码问题 已知一个观察序列XT,寻找最可能的隐状态序列 穷举法 把所有可能的隐状态序列的概率都计算一遍 计算复杂度()TO c T解码问题 Viterbi算法算法 初始化初始化对每个隐状态i,计算

8、 递归递归for t=2 to T:对每一个隐状态j,计算end 最后最后for t=T-1 to 1(路径回溯):end2()()TO c TO c T?计算复杂度计算复杂度例子 HMM为例子 已知t=0时状态为,即 现观测到的序列为 计算最可能的隐状态序列?10101112123130.2,0.3,0.1,0.4aaaa41320V,v v v v例子 解.00271(2)1练习:练习:把此图填写完整,并回溯最佳状态路径把此图填写完整,并回溯最佳状态路径解码问题 对于较长的序列,Viterbi算法可能导致计算机下溢出下溢出 改进改进:基于对数的Viterbi算法 优点 变乘为加 避免下溢出

9、 结果与Viterbi算法一样解码问题 对数对数Viterbi算法算法 初始化初始化对每个隐状态i,计算 递归递归for t=2 to T:对每一个隐状态j,计算end 最后最后for t=T-1 to 1(路径回溯):end学习问题 从一组训练样本D=x1,x2,xn 中,学习HMM的参数向量 不存在根据训练集确定HMM最优参数的算法 常用算法向前向后算法向前向后算法(forward-backward algorithm)又称Baum-Welch重估计算法重估计算法(Baum-Welch re-estimation algorithm)核心思想核心思想 通过递归方式更新HMM中的参数,以得到

10、能够最好解释训练样本的HMM参数学习问题 Baum-Welch重估计公式重估计公式 已知X和的情况下,t时刻为状态i,t+1时刻为状态j的后验概率(1)()()(|)iijjkjijTta bttP x向前向前向后向后1()1()()kTjltlv tvjkTjltltbt 学习问题 向前向后算法向前向后算法 初始化 repeat基于 和X,利用Baum-Welch重估计公式计算until收敛 返回参数估计结果Part 2 贝叶斯置信网特征相关性 某些情况下,关于分布的先验知识并非直接是概率分布的形式,而是有关各个特征分量之间的统计相关性(或独立性)关系x1和x3统计独立,而其他特征对不独立相

11、关性例子 汽车的状态 发动机温度 油温 油压 轮胎内气压 相关性 油压与轮胎内气压相互独立独立 油温与发动机温度相关相关贝叶斯置信网 用图的形式来表示特征之间的因果依赖性 贝叶斯置信网(贝叶斯置信网(Bayesian belief net)因果网(因果网(causal network)置信网(置信网(belief net)有向无环图 节点间的连线具有方向性方向性 图中无循环无循环路径 仅讨论离散情况贝叶斯置信网 每个节点节点A,B,C,代表一个系统变量(特征)每个节点可能的离散取值 A的值:a1,a2,a3,例如 A表示灯的状态 a1=开,a2=关,P(a1)=0.7,P(a2)=0.3 节点

12、之间的有向连接连接表示变量之间的依赖关系 从A到C的连接表示,或 任意节点的状态可通过与其相连的节点的状态推断(|)ijP ca(|)P c a联合概率 线性链(,)()(|)(|)(|)P a b c dP a P b a P c b P d c(,)(|)(|)()(|)aP b c dP c b P d cP a P b a(,)(|)()(|)(|)abP c dP d cP a P b a P c b联合概率 简单回路(,)()(|)(|)(|,)P e f g hP e P f e P g e P h f g(,)(|,)()(|)(|)eP f g hP h f gP e P f

13、 e P g e(,)()(|)(|)(|,)efP g hP e P f e P g e P h f g任意节点取特定值的概率 线性链任意节点取特定值的概率 简单回路,()(,)()(|)(|)(|,)e f ge f gP hP e f g hP e P f e P g e P h f g例子1 鱼分类置信网0.60.20.20.20.30.5例子1 求“一条夏天在北大西洋捕获的鱼为光泽暗淡宽度窄的鲈鱼”的概率 夏天:北大西洋:光泽暗淡:宽度窄:鲈鱼:3a1b3c2d2x31232312313222(,)()()(|,)(|)(|)0.25 0.6 0.6 0.5 0.40.018P a

14、b x c dP a P b P xa b P cx P dx例子1练习1.冬天在南大西洋捕获到鲑鱼的概率2.在南大西洋捕获光亮度高的鲈鱼的概率3.夏天在北大西洋捕获一条宽的并且光亮度高的鱼的概率 给定除目标变量X之外的变量的取值情况,确定其它变量的概率 证据,其中表示变量i的取值情况 例如,鱼分类置信网 已有证据:已知冬季:渔民更喜欢南大西洋:鱼的光泽较亮:由于遮挡,无法测出宽度,ABCDeeeee证据ie注意的位置!注意的位置!ie置信度 考虑某个节点X X之前的节点集合称为X的父节点父节点P,X之后的节点集合称为X的子节点子节点C 例子:X的父节点:A,B X的子节点:C,D 估计X的概

15、率时,需区别对待X的父节点和子节点 证据e:除X以外各节点的变量取值情况 在给定e的情况下,命题x=(x1,x2,)的置信度(belief)必须进行归一化,使得x所有取值的概率之和为1证据 简单情况直接表示变量i的取值 置信度对固定的e,为常数ie(,)(|)(,)()P xP xP xPeeee例子1 鱼分类置信网0.60.20.20.20.30.5例子1 南大西洋捕获一条光亮的鱼,判断鲑鱼还是鲈鱼?a未知b2=南大西洋c1=光亮d未知1121121,212111,21112121111(|)(,)(,)()()(|,)(|)(|)()(|)()(|,)(|)()(|)()(|a da da

16、dP xP x b cx a b c dP a P b P xa b P cx P d xP b P cxP a P xa bP d xP b P cxP a P xae122122313241421121,)()(|,)()(|,)()(|,)(|)(|)0.4 0.6 0.25 0.70.25 0.80.25 0.1 0.25 0.3 1.00.114bP a P xa bP a P xa bP a P xa bP dxP dx先求先求x1=鲑鱼的概率鲑鱼的概率e:例子1 南大西洋捕获一条光亮的鱼,判断鲑鱼还是鲈鱼?a未知b2=南大西洋c1=光亮d未知 归一化(使得)因,所以判断为鲑鱼鲑鱼

17、2(|)0.042P xe再求再求x2=鲈鱼的概率鲈鱼的概率12(|)(|)1P xP xee1(|)0.63P xe2(|)0.27P xe12(|)(|)P xP xee例子2 你在家里安装了一套防盗系统 该系统对入室盗窃检测很敏感,但有时地震也能触发报警 你有两个邻居:Ali和Veli。当你不在家的时候,他们如果听到报警声,会给你打电话 Ali听到报警声就会给你打电话,但是有时他会把电话铃声认为是报警声而给你打电话 Veli经常在家听音乐,所以有时听不见报警声 根据哪个邻居打了电话给你,你是否能够估计家里真的被入室盗窃的概率?例子2 建模例子2 计算如下事件的概率 系统报警,但是既没有盗

18、窃也没有地震发生,并且Ali和Veli都打电话给你例子2 如果Ali打电话给你,计算发生盗窃的置信度 方法一方法一归一化(|)(,)(|)(|)(|,)()()vcaeP B ACP B ACP AC a P vc a P a B e P B P e(|)(,)(|)(|)(|,)()()vcaePB ACPB ACP AC a P vc a P aB e PB P e(|)0.01620.0513P B AC例子2 如果Ali打电话给你,计算发生盗窃的置信度 方法二方法二例子2 如果Ali和Veli都打电话给你,计算发生盗窃的置信度(,)(|,)(,)(|)(|)(|,)()()(,)(,)

19、29aeP B AC VCP B AC VCP AC VCP AC a P VC a P a B e P B P eP B AC VCPB AC VC 例子3 草地变湿可能有两个原因:洒水装置打开过,或者下过雨 如果阴天,则下雨的可能比晴天大 如果阴天,打开洒水装置的可能较小 假设阴天和晴天等概率例子3 建模例子3 如果看到草地是湿的,判断洒水装置和下雨哪个原因更为可能?(|,)(|)(|)()(,)(|)()(,)(,)0.27810.4300.2781 0.369crP W S r P S c P r c P cP S WP S WP WP S WPS W(|,)(|)(|)()(,)(|

20、)()(,)(,)0.45810.7080.6471csP W s R P s c P R c P cP R WP R WP WP R WPR W因为,所以下雨造成草地湿的可能性更大因为,所以下雨造成草地湿的可能性更大(|)(|)P S WP R W例子3 如果看到草地是湿的,并且当时天气晴朗呢?(|)()(|,)(|)(,)(|,)(,)(,)(,)0.22950.8360.22950.045rP SC PCP W S r P rCP S WCP S WCP WCP S WCPS WC(|)()(|,)(|)(,)(|,)(,)(,)(,)0.09450.3440.2745sP RC PCP

21、 W s R P sCP R WCP R WCP WCP R WCPR WC因为,所以洒水造成草地湿的可能性更大因为,所以洒水造成草地湿的可能性更大(|,)(|,)P S WCP R WC朴素贝叶斯规则 当特征之间的依赖关系未知的时候,常常假设给定类别条件下各个特征条件独立 在此假设下的贝叶斯规则称为“朴素贝叶斯规则”(nave Bayes rule)或者“傻瓜贝叶斯规则”(idiot Bayes rule)朴素贝叶斯置信网1(|)(|)dkikipp xx小结 一阶马尔可夫链 隐马尔可夫模型(HMM)HMM的三大核心问题 估值问题 HMM向前算法向前算法 HMM向后算法向后算法 解码问题 Viterbi算法算法 对数对数Viterbi算法算法 学习问题 向前向后算法向前向后算法小结 贝叶斯置信网是描述特征之间因果关系的有向无环图 根据贝叶斯置信网计算联合概率 证据 给定证据下的置信度

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 技术资料 > 其他杂项

本站为文档C TO C交易模式,本站只提供存储空间、用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。本站仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知得利文库网,我们立即给予删除!客服QQ:136780468 微信:18945177775 电话:18904686070

工信部备案号:黑ICP备15003705号-8 |  经营许可证:黑B2-20190332号 |   黑公网安备:91230400333293403D

© 2020-2023 www.deliwenku.com 得利文库. All Rights Reserved 黑龙江转换宝科技有限公司 

黑龙江省互联网违法和不良信息举报
举报电话:0468-3380021 邮箱:hgswwxb@163.com