机器统计学习作业(12页).doc

上传人:1595****071 文档编号:36375118 上传时间:2022-08-26 格式:DOC 页数:12 大小:639KB
返回 下载 相关 举报
机器统计学习作业(12页).doc_第1页
第1页 / 共12页
机器统计学习作业(12页).doc_第2页
第2页 / 共12页
点击查看更多>>
资源描述

《机器统计学习作业(12页).doc》由会员分享,可在线阅读,更多相关《机器统计学习作业(12页).doc(12页珍藏版)》请在得力文库 - 分享文档赚钱的网站上搜索。

1、-一、()泛化误差上界:对二分类问题,当假设空间是有限个函数的集合时,对任意一个函数,至少以概率,以下不等式成立:其中,即的泛化能力:.证明:在证明中要用到Hoeffding不等式,故先叙述如下:设是独立随机变量是之和,;为这组随机变量的均值,则,以下不等式成立:对任意函数,是个独立的随机变量样本均值,是随机变量的期望值。如果损失函数取值于区间,即对所有,那么有上述Hoeffding不等式,对,以下不等式成立:由于是一有限集合,故或者等价的,对任意,有令则故至少以概率有.二、 ()以损失函数推导向量最小化感知机的损失函数感知机学习算法是误分类驱动的,具体采用随机梯度下降法。首先,任意选取一个超

2、平面,然后用梯度下降法不断极小化目标函数,极小化的过程不是一次使中所有的误分类点的梯度下降,而是一次随机选取一个误分类点使其梯度下降.随机梯度下降是一种迭代求解思路,而迭代法参数寻优的基本原理:沿着(代价)函数下降的方向寻找参数,能够找到极值点.在我们已经学过的数学知识中,导数和方向导数是能找到函数变化方向的。导数表示了曲线的斜率(倾斜度),方向导数表示了曲面沿着任意方向的斜率(倾斜度)。一维时,导数就足够了。但多维时,就需要借助方向导数了,而我们更希望能找到变化率最大的方向。因此,多维下借用方向导数变化最大的情况:梯度,梯度的方向是函数某点增长最快的方向,梯度的大小是该点的最大变化率.故对于

3、损失函数的梯度是对和求偏导:三、()如图所示的训练数据集,其正实例点是,负实例点是,试用感知机学习算法的原始形式求感知机模型.这里,.解 构建最优化问题:按照感知机学习算法的原始形式,求解,.(1) 取初值,(2) 对,未能被正确分类,更新,.,得到线性模型(3) 对,显然,被正确分类,不修改,.对,被误分类,更新,.,得到线性模型,得到线性模型(5)对,被误分类,更新,故得到线性模型(6)对,被误分类点,更新,.,故得到线性模型(7) 对,被误分类点,更新,.,故得到线性模型(8) 对,被误分类点,更新,.,故得到线性模型而该模型对正实例点,负实例点,都有,则没有分类点,损失函数达到最小.故

4、分离超平面为感知机模型为迭代过程如表四、 从统计角度考虑哪些因素影响近邻法的准确度.我们知道近邻法是一种应用广泛的非参数分类方法 ,可用于线性不可分的多类样本识别。它的优点是事先并不要求知道待分样本的分布函数。目前广泛使用的近邻法是以待分类样本为中心做超球体 ,逐渐扩大超球半径直至超球内包含个已知模式样本为止, 判断这个近邻样本中多数属于哪一类 ,就把待分类样本归为哪一类。分类算法描述如下:假设有个类别,.测试样本和与其最近的样本之间的距离为,,其中的下标表示类,上标表示类个样本中第个样本.在超球半径的前提下, 求,表示这个近邻中属于的样本数 .上述方法的弱点就是 ,半径的选取十分困难.值过大

5、, 超球体的覆盖面积广,会导致其他类样本被错误的覆盖, 从而加大样本的误识率反之若值过小 ,则不能完全覆盖该类别中可能的样本点.并且近邻点具有相似的预测值 ,所以的大小也会影响近邻法的准确度.该方法易受噪声影响,尤其是样本点中孤立点的影响而我们知道近邻法模型由三个部分构成:距离度量,的值,分类决策规则。所以值的选取也会影响到分类结果. 因为值的选取是根据每类样本的数目和分散程度选取的 ,对不同的应用选取的值也不同所以我们是要在是在值选定的情况下, 对近邻点的搜索区域进行合理的定位 ,即选取合适的的大小,即全局到局部 ,同时还要保障分类结果的准确性.具体方法:首先将样本空间的样本点进行小规模有目

6、的性的聚类,聚类后样本空间中样本分布的区域被划分成,若干个半径一定的小超球体如果能保证超球体内主体类样本数远远大于杂质类样本数, 那么搜索时就可根据其条件将搜索范围缩小到某些超球体内,在这些超球体内寻找待分样本点的个近邻点 定义代表全体聚类的集合 ,即中包含全部聚类中的数据代表确定的近邻点的集合, 为最近间隔, 为竞争点集, 即可能成为近邻点的集合聚类后计算指定点到每个聚类中心的距离, 如图 1 所示依据这些距离, 聚类集被划分 ,离最近的聚类为,下一个距离较近的聚类为 ,依次编号然后将聚类中的所有点添加到中,计算中所有点与的距离, 将满足条件的点转移到集合中这样近邻点的搜索区域就可以被大致定

7、位求近邻点的关键是确定点到中聚类的搜索距离 ,为此需创建最近间隔 每次近邻点的搜索范围便是以待分类点为圆心,值为半径的球体.在整个搜索过程中最近间隔一直处在变化过程中,值修改时采用使间隔内包含尽量少的需要计算的近邻点的原则,已确保搜索的准确性当聚类被初始划分时 ,由于采用局部聚类的方法,因此可能造成两个聚类存在重叠区域为避免重叠区域的点因重搜索而影响算法效率, 所以在计算最近间隔时 ,还必须考虑中的聚类是否有重叠区当最近间隔被初始创建时,检查与其他聚类是否有重叠区域, 如果没有且, 则中所有点皆放入中, 此时.如果有重叠区域或,则当被确定后, 中所有点依据值,将满足条件的点转移到中若中的点搜索

8、完毕 ,则按编号将下一个聚类中的点添加到中 ,重复上述操作 ,直到中包含个元素时为止.五、 根据表2计算:(1) 后验概率;(2) 离散属性的类条件概率;(3) 连续属性的类条件概率分布的参数 (样本均值和方差)Id有房婚姻状况年收入拖欠贷款1真单身125KNo2否已婚100KNo3否单身70KNo4真已婚120KNo5否离婚95KYes6否已婚60KNo7真离婚220KNo8否单身85KYes9否已婚75KNo10否单身90KYes表2从该数据集计算得到的先验概率以及每个离散属性的类条件概率、连续属性的类条件概率分布的参数(样本均值和方差)如下:先验概率:P(Yes)=;P(No)=年收入:如果类=No:样本均值=;样本方差=2975;如果类=Yes:样本均值=90;样本方差=25待预测记录:=有房=否,婚姻状况=已婚,年收入=120K由于0.0024大于0,所以该记录分类为。从上面的例子可以看出,如果有一个属性的类条件概率等于0,则整个类的后验概率就等于0。仅仅使用记录比例来估计类条件概率的方法显得太脆弱了,尤其是当训练样例很少而属性数目又很多时。解决该问题的方法是使用m估计方法来估计条件概率六、.-第 12 页-

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 教育专区 > 单元课程

本站为文档C TO C交易模式,本站只提供存储空间、用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。本站仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知得利文库网,我们立即给予删除!客服QQ:136780468 微信:18945177775 电话:18904686070

工信部备案号:黑ICP备15003705号-8 |  经营许可证:黑B2-20190332号 |   黑公网安备:91230400333293403D

© 2020-2023 www.deliwenku.com 得利文库. All Rights Reserved 黑龙江转换宝科技有限公司 

黑龙江省互联网违法和不良信息举报
举报电话:0468-3380021 邮箱:hgswwxb@163.com