信息论与编码技术 chap2 信源及其熵.ppt

上传人:s****8 文档编号:67261453 上传时间:2022-12-24 格式:PPT 页数:92 大小:649KB
返回 下载 相关 举报
信息论与编码技术 chap2 信源及其熵.ppt_第1页
第1页 / 共92页
信息论与编码技术 chap2 信源及其熵.ppt_第2页
第2页 / 共92页
点击查看更多>>
资源描述

《信息论与编码技术 chap2 信源及其熵.ppt》由会员分享,可在线阅读,更多相关《信息论与编码技术 chap2 信源及其熵.ppt(92页珍藏版)》请在得力文库 - 分享文档赚钱的网站上搜索。

1、第二章第二章 信源及其熵信源及其熵u本章介绍本章介绍信源的统计特性和数学模型信源的统计特性和数学模型各类信源的信息测度各类信源的信息测度-熵及其性质熵及其性质引入信息理论的一些基本概念和重要结论引入信息理论的一些基本概念和重要结论第第一章章的的几个推论几个推论n通信系统模型:通信系统模型:n对信息论的学习可从信源开始对信息论的学习可从信源开始n消息是信息的载荷者。信息是抽象的,消息是消息是信息的载荷者。信息是抽象的,消息是具体的。要研究信息,还得从研究消息入手。具体的。要研究信息,还得从研究消息入手。n由于信源发送什么消息预先是不可知的,只能由于信源发送什么消息预先是不可知的,只能用概率空间来

2、描述信源用概率空间来描述信源2.1 2.1 信源的数学模型及分类信源的数学模型及分类n单符号信源单符号信源:输出是单个符号(代码)的消息输出是单个符号(代码)的消息n离散信源离散信源n连续信源连续信源n平稳随机序列信源平稳随机序列信源:信源输出的消息由一系列符号序列信源输出的消息由一系列符号序列所组成,可用所组成,可用N维随机矢量维随机矢量 X(X1,X2,XN)描述,且随机描述,且随机矢量矢量X X 的各维概率分布都与时间起点无关的各维概率分布都与时间起点无关-平稳!平稳!n离散平稳信源离散平稳信源n连续平稳信源连续平稳信源n无记忆(独立)离散平稳信源无记忆(独立)离散平稳信源n有记忆信源有

3、记忆信源nm阶马尔可夫信源阶马尔可夫信源n随机波形信源随机波形信源离散信源离散信源(单符号单符号)n特点特点:输出是单个符号(代码)的消息,符号集输出是单个符号(代码)的消息,符号集的取值的取值A:a1,a2,aq是有限的或可数的,可用是有限的或可数的,可用一维离散型随机变量一维离散型随机变量X来描述。来描述。n例:例:投硬币、书信、电报符号等等。投硬币、书信、电报符号等等。n数学模型数学模型:设每个信源符号设每个信源符号ai出现的出现的(先验先验)概率概率 p(ai)(i=1,2,q)满足:满足:概率空间概率空间能表征离散信源的统计特性,因此也称概率能表征离散信源的统计特性,因此也称概率空间

4、为信源空间。空间为信源空间。连续信源连续信源n特点特点:输出是单个符号(代码)的消息,:输出是单个符号(代码)的消息,输出消输出消息的符号集息的符号集A的取值是连续的,可用一维的连的取值是连续的,可用一维的连续型随机变量续型随机变量X 来描述。来描述。n例:语音信号、热噪声信号、遥控系统中有关电压、例:语音信号、热噪声信号、遥控系统中有关电压、温度、压力等测得的连续数据等等。温度、压力等测得的连续数据等等。n数学模型数学模型:连续型的概率空间。即:连续型的概率空间。即:或或或或满足满足满足满足 或或或或 平稳随机序列信源平稳随机序列信源n总体总体特点特点:信源输出的消息由一系列符号序列所组成,

5、可用信源输出的消息由一系列符号序列所组成,可用N维随机矢量维随机矢量 X(X1,X2,XN)描述,且随机矢量描述,且随机矢量X X 的各维概率分布都与时间起点无关的各维概率分布都与时间起点无关 平稳!平稳!n离散平稳信源:每个随机变量离散平稳信源:每个随机变量Xi (i1,2,N)都是离散型随机变量都是离散型随机变量n连续平稳信源:每个随机变量连续平稳信源:每个随机变量Xi (i1,2,N)都是取值连续的随机变量都是取值连续的随机变量离散无记忆平稳信源离散无记忆平稳信源n离散平稳信源的特例,信源发出的符号都离散平稳信源的特例,信源发出的符号都相互统计独相互统计独立立,即各随机变量,即各随机变量

6、X Xi (i1,2,N)之间统计独立之间统计独立n性质性质:n独立独立P(X)=P(X X1,X X2,X XN)=P1(X1)P2(X2)PN(XN)n平稳平稳 P1(Xi)=P2(Xi)=PN(Xi)N维随机维随机矢量矢量的一个取的一个取值,值,i(ai1 ai2aiN)P(aik)是符号集是符号集A的的一维概率分布一维概率分布n 设各随机变量设各随机变量X Xi取值同样符号集取值同样符号集A:a1,a2,aq,则则n描述的信源描述的信源X的各输出各输出X Xi间统计独立间统计独立、且取值、且取值同一同一符号集符号集A,则则X为为离散无记忆信源离散无记忆信源,称该信源输出,称该信源输出的

7、的N维维随机矢量随机矢量X 为为离散无记忆信源离散无记忆信源X的的N次扩展次扩展信源信源n若若X 取值为取值为符号集符号集 i(ai1ai2aiN),其中其中(i1,i2,iN=1,2,q),则则离散无记忆信源的离散无记忆信源的N次扩展次扩展信源的信源的数学模型数学模型是是X信源空间的信源空间的N重空间重空间:有记忆信源有记忆信源n信源在不同时刻发出的信源在不同时刻发出的符号之间是相互依赖的符号之间是相互依赖的,即信源输出的平稳随机序列即信源输出的平稳随机序列X中,各随机变量中,各随机变量Xi之之间相互依赖。间相互依赖。n需在需在N维随机矢量的联合概率分布中,引入维随机矢量的联合概率分布中,引

8、入条件概条件概率分布率分布来说明它们之间的关联。来说明它们之间的关联。n例:例:汉字组成的中文序列中,只有根据中文的语法、汉字组成的中文序列中,只有根据中文的语法、习惯用语、修辞制约和表达实际意义的制约所构成的中习惯用语、修辞制约和表达实际意义的制约所构成的中文序列才是有意义的中文句子或文章。所以,在汉字序文序列才是有意义的中文句子或文章。所以,在汉字序列中前后文字的出现是有依赖的,不能认为是彼此不相列中前后文字的出现是有依赖的,不能认为是彼此不相关的。其他如英文,德文等自然语言都是如此关的。其他如英文,德文等自然语言都是如此m m阶马尔可夫信源阶马尔可夫信源n不同时刻发出的符号间的依赖关系不

9、同时刻发出的符号间的依赖关系n记忆信源的记忆长度为记忆信源的记忆长度为m+1时,称这种有记忆信时,称这种有记忆信源为源为m阶马尔可夫信源阶马尔可夫信源n若上述条件概率与时间起点若上述条件概率与时间起点 i 无关,信源输出的无关,信源输出的符号序列可看成为时齐马尔可夫链,则此信源称符号序列可看成为时齐马尔可夫链,则此信源称为为时齐马尔可夫信源时齐马尔可夫信源更一般情况:随机波形信源更一般情况:随机波形信源n实际信源输出的消息常常是时间和取值都是连续实际信源输出的消息常常是时间和取值都是连续的。这类信源称为的。这类信源称为随机波形信源随机波形信源。n随机波形信源在某一固定时间随机波形信源在某一固定

10、时间 t0 的可能取值是的可能取值是连连续和随机续和随机的。对于这种信源输出的消息,可用随的。对于这种信源输出的消息,可用随机过程来机过程来描述描述。n例:语音信号例:语音信号X(t)、热噪声信号热噪声信号n(t)、电视图像信电视图像信号号X(r(t),g(t),b(t)等时间连续函数。等时间连续函数。2.2 2.2 离散信源的信息熵其性质离散信源的信息熵其性质 n讨论基本的离散信源讨论基本的离散信源(即输出为单个符号的消即输出为单个符号的消息,且这些消息间两两互不相容息,且这些消息间两两互不相容)n基本的离散信源可用一维随机变量基本的离散信源可用一维随机变量X来描述信来描述信源的输出,信源的

11、数学模型可抽象为源的输出,信源的数学模型可抽象为:问题问题问题问题:这样的信源能输出多少信息:这样的信源能输出多少信息:这样的信源能输出多少信息:这样的信源能输出多少信息?每个消息的出现携带多少信息量每个消息的出现携带多少信息量每个消息的出现携带多少信息量每个消息的出现携带多少信息量?信息的度量信息的度量n考虑:考虑:n信息的度量(信息量)和不确定性消除的程度有关,信息的度量(信息量)和不确定性消除的程度有关,消除的不确定性获得的信息量;消除的不确定性获得的信息量;n不确定性就是随机性,可以用概率论和随机过程来测不确定性就是随机性,可以用概率论和随机过程来测度,概率小度,概率小不确定性大;不确

12、定性大;n推论:推论:n概率小概率小 信息量大,即信息量是概率的单调递减函信息量大,即信息量是概率的单调递减函数;数;n信息量应该具有可加性;信息量应该具有可加性;n信息量的计算公式为(香农(自)信息量的度量):信息量的计算公式为(香农(自)信息量的度量):一一.自信息自信息n设离散信源设离散信源X的概率空间为:的概率空间为:I(ai)代表两种代表两种含义含义:(1)当事件当事件ai发生以前,表示事件发生以前,表示事件ai发生的不确定性发生的不确定性(2)当事件)当事件ai发生以后,表示事件发生以后,表示事件ai所提供的信息量所提供的信息量n称事件称事件ai发生所含有的信息量为发生所含有的信息

13、量为 ai 的的自信息量自信息量。定义为:定义为:例例 8个串联的灯泡个串联的灯泡x1,x2,x8,其损坏的可能性是等其损坏的可能性是等概率的,现假设其中有一个灯泡已损坏,问每进行一次测量概率的,现假设其中有一个灯泡已损坏,问每进行一次测量可获得多少信息量?总共需要多少次测量才能获知和确定哪可获得多少信息量?总共需要多少次测量才能获知和确定哪个灯泡已损坏。个灯泡已损坏。解解解解:收到某消息获得的信息量:收到某消息获得的信息量:收到某消息获得的信息量:收到某消息获得的信息量(即收到某消息后获得关于即收到某消息后获得关于即收到某消息后获得关于即收到某消息后获得关于某事件发生的信息量某事件发生的信息

14、量某事件发生的信息量某事件发生的信息量)不确定性减少的量不确定性减少的量不确定性减少的量不确定性减少的量 (收到此消息前关于某事件发生的不确定性收到此消息前关于某事件发生的不确定性收到此消息前关于某事件发生的不确定性收到此消息前关于某事件发生的不确定性)-(-(收到此消息后关于某事件发生的不确定性收到此消息后关于某事件发生的不确定性收到此消息后关于某事件发生的不确定性收到此消息后关于某事件发生的不确定性)已知已知8个灯泡等概率损坏,所以先验概率个灯泡等概率损坏,所以先验概率P(x1)1/8,即,即第二次测量第二次测量获得的信息量获得的信息量=I P(x2)-I P(x3)=1(bit)第三次测

15、量第三次测量获得的信息量获得的信息量=I P(x3)=1(bit)vv至少要获得至少要获得至少要获得至少要获得3 3个比特的信息量就可确切知道哪个灯泡已坏了。个比特的信息量就可确切知道哪个灯泡已坏了。个比特的信息量就可确切知道哪个灯泡已坏了。个比特的信息量就可确切知道哪个灯泡已坏了。第一次测量第一次测量获得的信息量获得的信息量=I P(x1)-I P(x2)=1(bit)经过二次测量后,剩经过二次测量后,剩2个灯泡,等概率损坏,个灯泡,等概率损坏,P(x3)1/2一次测量后,剩一次测量后,剩4个灯泡,等概率损坏,个灯泡,等概率损坏,P(x2)1/4自自信息的推导信息的推导n某事件发生所含有的信

16、息量应该是该事件发生的先验概率某事件发生所含有的信息量应该是该事件发生的先验概率的函数。即:的函数。即:I(ai)f p(ai)n根据客观事实和人们的习惯概念,函数根据客观事实和人们的习惯概念,函数 f p(ai)应满足以应满足以下条件:下条件:(1)它应是先验概率)它应是先验概率p(ai)的单调递减函数,即当的单调递减函数,即当 p(a1)p(a2)时,有时,有 f p(a1)1r1)熵的计算熵的计算例例:有一布袋内放有一布袋内放l00个球,其中个球,其中80个球是红色的,个球是红色的,20个球是白色的。随便摸出一个球,猜测是什么颜个球是白色的。随便摸出一个球,猜测是什么颜色,那么其概率空间

17、为:色,那么其概率空间为:如果被告知摸出的是红球,那么获得的信息量是:如果被告知摸出的是红球,那么获得的信息量是:如果被告知摸出的是红球,那么获得的信息量是:如果被告知摸出的是红球,那么获得的信息量是:I(a1)log p(a1)log0.8=0.32 (比特)比特)比特)比特)如被告知摸出来的是白球,所获得的信息量应为:如被告知摸出来的是白球,所获得的信息量应为:如被告知摸出来的是白球,所获得的信息量应为:如被告知摸出来的是白球,所获得的信息量应为:I(a2)log p(a2)log0.2=2.32 (比特)比特)比特)比特)平均摸取一次所能获得的信息量为平均摸取一次所能获得的信息量为平均摸

18、取一次所能获得的信息量为平均摸取一次所能获得的信息量为 :H(X)=p(a1)I(a1)+p(a2)I(a2)=0.72(比特比特比特比特/符号)符号)符号)符号)熵的含义熵的含义n熵是熵是从整个集合的统计特性从整个集合的统计特性来考虑的,它从平均意义上来来考虑的,它从平均意义上来表征信源的总体特征。表征信源的总体特征。n在信源输出后,信息熵在信源输出后,信息熵H(X)表示每个消息提供的平均信表示每个消息提供的平均信息量;息量;n在信源输出前,信息熵在信源输出前,信息熵H(X)表示信源的平均不确定性;表示信源的平均不确定性;n信息熵信息熵H(X)表征了变量表征了变量X的随机性。的随机性。n n

19、例如例如例如例如,有两信源有两信源有两信源有两信源X X、Y Y,其概率空间分别其概率空间分别其概率空间分别其概率空间分别计算其熵,计算其熵,得:得:得:得:H(X)=0.08H(X)=0.08(bit/bit/符号)符号)符号)符号)H(Y)=1H(Y)=1(bit/bit/符号)符号)符号)符号)H(Y)H(X),因此信源因此信源Y比信源比信源X的平均不确定性要大。的平均不确定性要大。例例 设甲地的天气预报为:晴设甲地的天气预报为:晴(占占48)、阴、阴(占占28)、大雨、大雨(占占18)、小雨、小雨(占占18)。又设乙地的天气预报为:晴。又设乙地的天气预报为:晴(占占78),小雨,小雨(

20、占占18)。试求两地天气预报各自提供的平均信息。试求两地天气预报各自提供的平均信息量。若甲地天气预报为两极端情况,一种是晴出现概率为量。若甲地天气预报为两极端情况,一种是晴出现概率为1而而其余为其余为0。另一种是晴、阴、小雨、大雨出现的概率都相等为。另一种是晴、阴、小雨、大雨出现的概率都相等为14。试求这两极端情况所提供的平均信息量。又试求乙地出。试求这两极端情况所提供的平均信息量。又试求乙地出现这两极端情况所提供的平均信息量。现这两极端情况所提供的平均信息量。两个信源两个信源解:甲地天气预报构成的信源空间为解:甲地天气预报构成的信源空间为:则其提供的平均信息量即信源的信息熵则其提供的平均信息

21、量即信源的信息熵则其提供的平均信息量即信源的信息熵则其提供的平均信息量即信源的信息熵:乙地天气预报的信源空间为乙地天气预报的信源空间为:n n结论结论结论结论:甲地:甲地:甲地:甲地天气预报天气预报提供的平均信息量大于乙地,因为乙地提供的平均信息量大于乙地,因为乙地提供的平均信息量大于乙地,因为乙地提供的平均信息量大于乙地,因为乙地比甲地的平均不确定性小。比甲地的平均不确定性小。比甲地的平均不确定性小。比甲地的平均不确定性小。甲地极端情况n极端情况极端情况1:晴天概率:晴天概率1n 结论结论:等概率分布等概率分布时信源的不确定性最大,时信源的不确定性最大,所以所以信息熵信息熵(平均信息量)平均

22、信息量)最大最大。n极端情况极端情况2:各种天气等概率分布:各种天气等概率分布乙地极端情况n极端情况极端情况1:晴天概率:晴天概率1n 结论结论:在极端情况:在极端情况2下,甲地比乙地提供更多的信息量。下,甲地比乙地提供更多的信息量。因为,甲地可能出现的消息数比乙地可能出现的消息数多。因为,甲地可能出现的消息数比乙地可能出现的消息数多。n极端情况极端情况2:各种天气等概率分布:各种天气等概率分布n信息熵是信源概率空间的一种特殊信息熵是信源概率空间的一种特殊矩函数矩函数。这个矩函。这个矩函数的大小,与信源的符号数及其概率分布有关。数的大小,与信源的符号数及其概率分布有关。n我们用我们用概概率矢量

23、率矢量P来表示来表示概概率分布率分布P(x):三、信息熵的基本性质三、信息熵的基本性质 这样,信息熵这样,信息熵这样,信息熵这样,信息熵H(H(X X)是概率矢量是概率矢量是概率矢量是概率矢量P P或它的分量或它的分量或它的分量或它的分量p p1 1,p p2 2,p pq q的的的的q-1q-1元函数元函数元函数元函数(因各分量满足上述条件限制,所以独立变量只因各分量满足上述条件限制,所以独立变量只因各分量满足上述条件限制,所以独立变量只因各分量满足上述条件限制,所以独立变量只有有有有q-1q-1元元元元)。一般一般一般一般 H(H(X)X)可写成:可写成:可写成:可写成:熵函数熵函数nH(

24、P)是概率矢量是概率矢量P的函数,称为熵函数。的函数,称为熵函数。n我们用下述表示方法:我们用下述表示方法:n用用H(x)表示以离散随机变量表示以离散随机变量x描述的描述的信源的信息熵信源的信息熵;n用用H(P)或或 H(p1,p2,pq)表示概率矢量为表示概率矢量为P=(p1,p2,pq)的的q个符号信源的信息熵个符号信源的信息熵。n若当若当 q=2 时,因为时,因为 p1+p2=1,所以将两个符号的熵所以将两个符号的熵函数写成函数写成H(p1)或或H(p2)。n熵函数熵函数H(P)是一种特殊函数,具有以下性质。是一种特殊函数,具有以下性质。性质:性质:1、对称性、对称性:H(P)的的取值与

25、分量取值与分量 p1,p2 ,pq的顺序无关。的顺序无关。n说明:说明:从数学角度:从数学角度:H(P)=pi log pi 中的和式满足交换率;中的和式满足交换率;从随机变量的角度:熵只与随机变量的总体统计特性有关。从随机变量的角度:熵只与随机变量的总体统计特性有关。n一个例子:一个例子:2、确定性、确定性:H(1,0)=H(1,0,0)=H(1,0,0,0)=0n性质说明性质说明:从总体来看,信源虽然有不同的输出符号,:从总体来看,信源虽然有不同的输出符号,但它只有一个符号几乎必然出现,而其它符号则是几但它只有一个符号几乎必然出现,而其它符号则是几乎不可能出现,那么,这个信源是一个确知信源

26、,其乎不可能出现,那么,这个信源是一个确知信源,其熵等于零。熵等于零。3、非负性、非负性:H(P)0n说明说明:n n随机变量随机变量随机变量随机变量X X的概率分布满足的概率分布满足的概率分布满足的概率分布满足0 0p pi i1 1,当取对数的底大当取对数的底大当取对数的底大当取对数的底大于于于于1 1时,时,时,时,log(log(p pi i)0 0,-p pi ilog(log(p pi i )0 0,即得到的熵为正即得到的熵为正即得到的熵为正即得到的熵为正值。只有当随机变量是一确知量时熵才等于零。值。只有当随机变量是一确知量时熵才等于零。值。只有当随机变量是一确知量时熵才等于零。值

27、。只有当随机变量是一确知量时熵才等于零。n n这种非负性合适于离散信源的熵,对连续信源来说这一这种非负性合适于离散信源的熵,对连续信源来说这一这种非负性合适于离散信源的熵,对连续信源来说这一这种非负性合适于离散信源的熵,对连续信源来说这一性质并不存在。以后可看到在相对熵的概念下,可能出性质并不存在。以后可看到在相对熵的概念下,可能出性质并不存在。以后可看到在相对熵的概念下,可能出性质并不存在。以后可看到在相对熵的概念下,可能出现负值。现负值。现负值。现负值。vv 非负性体现信息是非负的。非负性体现信息是非负的。非负性体现信息是非负的。非负性体现信息是非负的。4、扩展性、扩展性n性质说明:性质说

28、明:信源的取值数增多时,若这些取值对应的概率信源的取值数增多时,若这些取值对应的概率很小很小(接近于零接近于零),则信源的熵不变。,则信源的熵不变。所以,上式成立所以,上式成立因为因为5 5、可加性、可加性 统计独立统计独立信源信源X和和Y的的联合信源的熵联合信源的熵等于信源等于信源X和和Y各自的熵之和。各自的熵之和。H(XY)=H(X)+H(Y)l可加性是熵函数的一个重要特性,正因具有可加性,可加性是熵函数的一个重要特性,正因具有可加性,才使熵函数的形式是唯一的。才使熵函数的形式是唯一的。证明:证明:证明:证明:例如,甲信源为例如,甲信源为例如,甲信源为例如,甲信源为它们的联合信源是它们的联

29、合信源是可计算得联合信源的联合熵:可计算得联合信源的联合熵:H(Z)=H(XY)=log(nm)=log m+log n=H(X)+H(Y)乙信源为乙信源为乙信源为乙信源为6 6、强可加性、强可加性n两个互相关联的信源两个互相关联的信源X和和Y的联合信源的的联合信源的熵等于信熵等于信源源X的的熵加上在熵加上在X已知条件下信源已知条件下信源Y的条件的条件熵。熵。H(XY)=H(X)+H(Y/X)nH(Y/X)表示信源表示信源 X 输出一符号的条件下,输出一符号的条件下,信源信源Y再输出一符号所能提供的平均信息量,再输出一符号所能提供的平均信息量,称为称为条件熵条件熵。H(XY)=H(X)+H(Y

30、/X)的证明:的证明:H(XY)=H(X)+H(Y/X)7、递增性、递增性 若原信源若原信源 X 中中有一个符号分割成了有一个符号分割成了m个元素个元素(符符号号),这,这m个元素的概率之和等于原元素的概率,而个元素的概率之和等于原元素的概率,而其他符号的概率不变,则其他符号的概率不变,则新信源的熵增加新信源的熵增加。熵的增加量等于由分割而产生的不确定性量。熵的增加量等于由分割而产生的不确定性量。证明可以从熵的定义或证明可以从熵的定义或强可加性强可加性得出:得出:因为因为因为因为而当而当而当而当inin时时时时p pij ij=0=0,所以所以所以所以即得:即得:即得:即得:递增性的推广递增性

31、的推广n它表示它表示n个元素的信源熵可以递推成个元素的信源熵可以递推成(n-1)个二元信个二元信源的熵函数的加权和。这样,可使源的熵函数的加权和。这样,可使多元信源的熵函多元信源的熵函数的计算简化成计算若干个二元信源的熵函数数的计算简化成计算若干个二元信源的熵函数。因。因此,熵函数的递增性又可称为递推性。此,熵函数的递增性又可称为递推性。例例:运用运用熵熵函数的递增性(的推广),计算函数的递增性(的推广),计算熵函熵函数数H(1/3,1/3,1/6,1/6)的数值。的数值。8、极值性、极值性n在离散信源情况下,信源各符号在离散信源情况下,信源各符号等概率分布等概率分布时,时,熵值达到最大。熵值

32、达到最大。n性质表明性质表明等概率分布信源的平均不确定性为最大。等概率分布信源的平均不确定性为最大。n这是一个很重要的结论,称为这是一个很重要的结论,称为最大离散熵定理。最大离散熵定理。证明证明:因为对数是因为对数是型凸函数,满足詹森不等式型凸函数,满足詹森不等式Elog Y log EY,则有:则有:二进制信源是离散信源的一个特例。二进制信源是离散信源的一个特例。该信源符号只有二个,设为该信源符号只有二个,设为“0”和和“1”。符号。符号输出的概率分别为输出的概率分别为“”和和“1-”,即信源的概率空,即信源的概率空间为:间为:H(X)=-log (1-)log(1-)=H()即信息熵即信息

33、熵H(x)是是 的函数。的函数。取值于取值于0,1区间,可区间,可画出熵函数画出熵函数H()的曲线来,的曲线来,如右图所示。如右图所示。n熵函数熵函数H(P)是概率矢量是概率矢量P(p1,p2,pq)的的严格严格型凸函数型凸函数(或称上凸函数或称上凸函数)。n它表示:对任意概率矢量它表示:对任意概率矢量P1(p1,p2,pq)和和P2(p1,p2,pq),和任意的和任意的 0 1,有:有:H P1十十(1-)P2 H(P1)十十(1-)H(P2)n因为熵函数具有上凸性,所以熵函数具有极值,其因为熵函数具有上凸性,所以熵函数具有极值,其最大值存在。最大值存在。9 9、上凸性、上凸性、上凸性、上凸

34、性2.3 2.3 离散无记忆的扩展信源离散无记忆的扩展信源离散信源离散信源n单符号离散信源单符号离散信源n离散序列信源离散序列信源n离散无记忆信源离散无记忆信源n一般无记忆一般无记忆n平稳无记忆平稳无记忆n离散有记忆信源离散有记忆信源n平稳序列信源平稳序列信源n马尔可夫信源马尔可夫信源n当离散平稳无记忆信源信源发出固定长度的消息当离散平稳无记忆信源信源发出固定长度的消息序列时,则得到原信源的序列时,则得到原信源的扩展信源扩展信源。n例如在电报系统中,若信源输出的是二个二元数例如在电报系统中,若信源输出的是二个二元数字组成的符号序列,此时可认为是一个新的信源,字组成的符号序列,此时可认为是一个新

35、的信源,它由四个符号(它由四个符号(00,01,10,11)组成,我们)组成,我们把该信源称为把该信源称为二元无记忆信源的二次扩展信源二元无记忆信源的二次扩展信源。n如果把如果把N个二元数字组成一组,则信源等效成一个二元数字组成一组,则信源等效成一个具有个具有2N个符号的新信源,把它称为个符号的新信源,把它称为二元无记信二元无记信源的源的N次扩展信源次扩展信源。n一般情况下,对一个离散无记忆信源一般情况下,对一个离散无记忆信源X,其样本其样本空间为空间为a1,a2,aq,对它的输出对它的输出消息序列消息序列,可用一组组长度为可用一组组长度为N的序列来表示它。这时,它的序列来表示它。这时,它等效

36、成一个等效成一个新信源新信源。n新信源输出的新信源输出的符号符号是是N维离散维离散随机矢量随机矢量X=(X1,X2,XN),其中每个分量其中每个分量Xi(i1,2,N)都都是随机变量,它们都取值于同一信源符号集,并是随机变量,它们都取值于同一信源符号集,并且分量之间统计独立,则由随机矢量且分量之间统计独立,则由随机矢量X 组成的新组成的新信源称为信源称为离散无记忆信源离散无记忆信源X的的N次扩展信源。次扩展信源。单符号离散信源单符号离散信源X的数学模型:的数学模型:nN次扩展信源与单符号离散信源次扩展信源与单符号离散信源比较比较:数学模型相同但输出不:数学模型相同但输出不是单个符号,而是一串是

37、单个符号,而是一串N个相互独立的符号序列:个相互独立的符号序列:X(X1,X2,XN),联合分布密度联合分布密度P(X)=P(X1X2XN)n把把 X 等效为一个新信源,称为等效为一个新信源,称为X的的N次扩展信源,其数学模型次扩展信源,其数学模型:因为是无记忆的因为是无记忆的因为是无记忆的因为是无记忆的(彼此统计独立彼此统计独立彼此统计独立彼此统计独立)则:则:则:则:离散平稳无记忆离散平稳无记忆N次扩展信源的熵次扩展信源的熵 H(X)=H(XN)=NH(X)其中其中:同理计算式中其余各项,得到:同理计算式中其余各项,得到:H(XN)=H(X)+H(X)+H(X)=N H(X)证:证:例例

38、求如下离散无记忆信源的二次扩展信源及其熵。求如下离散无记忆信源的二次扩展信源及其熵。解解:二次扩展信源的概率空间为:二次扩展信源的概率空间为X2的信源符号123456789对应的符号序列a1 a1a1 a2a1 a3a2 a1a2 a2a2 a3a3 a1a3 a2a3 a3概率P(i)1/41/81/81/81/161/161/81/161/16一、离散平稳信源的数学定义一、离散平稳信源的数学定义n 在一般情况下在一般情况下,信源在,信源在 t=i 时刻将要发出什么样的符号决时刻将要发出什么样的符号决定于两方面:定于两方面:(1)信源在信源在 t=i 时刻随机变量时刻随机变量Xi 取值的概率

39、分布取值的概率分布P(xi)。一般一般 P(xi)P(xj)(2)t=i 时刻以前信源发出的符号。时刻以前信源发出的符号。即与条件概率即与条件概率P(xi/xi-1 xi-2)有关有关n对对平稳随机序列平稳随机序列,序列的统计性质与时间的推移无关,序列的统计性质与时间的推移无关,即信源发出符号序列的概率分布与时间起点无关。即信源发出符号序列的概率分布与时间起点无关。2.4 2.4 离散平稳信源离散平稳信源 n平稳随机序列的数学定义如下:平稳随机序列的数学定义如下:n若当若当t=i,t=j时时(i,j 是大于是大于1的任意整数的任意整数),P(xi)=P(xj)=P(x),则序列是一维平稳的。具

40、有这样性质的信源称为则序列是一维平稳的。具有这样性质的信源称为一维平稳信源一维平稳信源。n除上述条件外,如果联合概率分布除上述条件外,如果联合概率分布P(xixi+1)也与时间起点无关,也与时间起点无关,即即P(xixi+1)=P(xjxj+1)(i,j为任意整数且为任意整数且i j),则信源称为则信源称为二维平二维平稳信源稳信源。它表示任何时刻信源发出二个符号的联合概率分布也完。它表示任何时刻信源发出二个符号的联合概率分布也完全相等。全相等。n如果各维联合概率分布均与时间起点无关,那么,信源是完全平如果各维联合概率分布均与时间起点无关,那么,信源是完全平稳的。这种各维联合概率分布均与时间起点

41、无关的完全平稳信源稳的。这种各维联合概率分布均与时间起点无关的完全平稳信源称为称为离散平稳信源离散平稳信源。这时有:。这时有:P(xi)=P(xj)P(xi xi+1)=P(xj xj+1)P(xi xi+1 xi+N)=P(xj xj+1 xi+N)由于由于联合概率与条件概率联合概率与条件概率有以下关系:有以下关系:n结论:结论:对于平稳信源来说,其条件概率均与时间起点无关,对于平稳信源来说,其条件概率均与时间起点无关,只与关联长度只与关联长度N有关。有关。即平稳信源发出的平稳随机序列前即平稳信源发出的平稳随机序列前后的依赖关系与时间起点无关后的依赖关系与时间起点无关。从从平稳性平稳性可得:

42、可得:n对平稳信源对平稳信源如果如果某时刻发出什么符号只与前面发某时刻发出什么符号只与前面发出的出的N个符号有关个符号有关,那么,那么任何时刻任何时刻它们的依赖关它们的依赖关系都是一样的。即:系都是一样的。即:二、二维平稳信源及其信息熵二、二维平稳信源及其信息熵 最简单的平稳信源就是最简单的平稳信源就是二维平稳信源二维平稳信源。它。它满足一维和满足一维和二维概率分布与时间起点无关。二维概率分布与时间起点无关。同时已知:连续两个信源符号出现的联合概率分布为同时已知:连续两个信源符号出现的联合概率分布为同时已知:连续两个信源符号出现的联合概率分布为同时已知:连续两个信源符号出现的联合概率分布为P(

43、ai aj)(i,j=1,q),且:且:且:且:n设有一个离散二维平稳信源,其概率空间为:设有一个离散二维平稳信源,其概率空间为:n对离散二维平稳信源的信息测度:对离散二维平稳信源的信息测度:n由由于于只只有有两两个个符符号号有有关关联联,且且其其关关联联与与时时间间无无关关,则则我我们们可可把把这这个个信信源源输输出出的的随随机机序序列列分分成成每每二二个个符符号号一一组组(因因为为相相邻邻的的两两个个符符号号才才有有关关联联),每每组组构构成成新新信信源源的的一一个个符符号号,并并假假设设组组与与组组之之间间统统计计无无关关(实实际际上上,组组尾尾的的符符号号与与下下一一组组组组头的符号是

44、有关的头的符号是有关的)。n这这时时,等等效效成成一一个个新新的的信信源源X1X2,它它们们的的联联合合概概率率空空间间为:为:根据信息熵的定义,得:根据信息熵的定义,得:根据信息熵的定义,得:根据信息熵的定义,得:H(XH(X1 1X X2 2)称为称为称为称为X X1 1X X2 2的联合熵的联合熵的联合熵的联合熵。关于关于离散二维平稳信源联合熵离散二维平稳信源联合熵nH(X1X2)表示原来信源表示原来信源X输出任意一对消息输出任意一对消息的共熵,即的共熵,即描述信源描述信源X输出长度为输出长度为2的序列的序列的平均不确定性的平均不确定性(或所含有的信息量)。(或所含有的信息量)。n可用可

45、用H(X1X2)/2作为作为信源信源X的信息熵的的信息熵的近似近似值值。从另一角度(从另一角度(从另一角度(从另一角度(来研究信源来研究信源来研究信源来研究信源X X的信息熵的近似值):的信息熵的近似值):的信息熵的近似值):的信息熵的近似值):(1 1)由由由由于于于于信信信信源源源源X X发发发发出出出出的的的的符符符符号号号号序序序序列列列列中中中中前前前前后后后后两两两两个个个个符符符符号号号号之之之之间间间间有有有有依依依依赖赖赖赖性性性性,可可可可以以以以先先先先求求求求出出出出在在在在已已已已知知知知前前前前面面面面一一一一个个个个符符符符号号号号X Xl la ai i时时时时

46、,信信信信源源源源输输输输出出出出下下下下一个符号一个符号一个符号一个符号的平均不确定性:的平均不确定性:的平均不确定性:的平均不确定性:(2 2)前前前前面面面面一一一一个个个个符符符符号号号号X Xl l又又又又可可可可取取取取a ai i a a1 1,a a2 2,a aq q 中中中中任任任任一一一一个个个个,对对对对某某某某一一一一个个个个a ai i存存存存在在在在一一一一个个个个平平平平均均均均不不不不确确确确定定定定性性性性H(XH(X2 2/X/X1 1a ai i),那那那那么么么么对对对对所所所所有有有有a ai i的的的的可可可可能能能能值值值值进进进进行行行行统统统

47、统计计计计平平平平均均均均就就就就得得得得当当当当前前前前面面面面一一一一个个个个符符符符号号号号巳巳巳巳知知知知时时时时,再再再再输出下一个符号的总的平均不确定性输出下一个符号的总的平均不确定性输出下一个符号的总的平均不确定性输出下一个符号的总的平均不确定性H(XH(X2 2/X/X1 1):(3 3)根据概率关系,可以得到)根据概率关系,可以得到)根据概率关系,可以得到)根据概率关系,可以得到联合熵与条件熵联合熵与条件熵联合熵与条件熵联合熵与条件熵的关系:的关系:的关系:的关系:即:即:即:即:H(XH(X1 1X X2 2)H(XH(X1 1)+H(X)+H(X2 2/X/X1 1)而而

48、而而 H(XH(X2 2/X/X1 1)H(XH(X2 2)因此因此因此因此 H(XH(X1 1X X2 2)H(XH(X1 1)+H(X)+H(X2 2/X/X1 1)H(XH(X1 1)+H(X)+H(X2 2)=2H(X)=2H(X)所所所所以以以以,一一一一般般般般情情情情况况况况下下下下,输输输输出出出出二二二二个个个个符符符符号号号号的的的的联联联联合合合合熵熵熵熵总总总总是是是是小小小小于于于于二二二二倍倍倍倍信源的熵。信源的熵。信源的熵。信源的熵。例例例例 某一离散二维平稳信源某一离散二维平稳信源某一离散二维平稳信源某一离散二维平稳信源其其其其发发发发出出出出的的的的符符符符号

49、号号号只只只只与与与与前前前前一一一一个个个个符符符符号号号号有有有有关关关关,即即即即可可可可用用用用联联联联合合合合概概概概率率率率P(aP(ai ia aj j)给出它们的关联程度,如下表所示给出它们的关联程度,如下表所示给出它们的关联程度,如下表所示给出它们的关联程度,如下表所示 求信源的熵求信源的熵求信源的熵求信源的熵H(X)H(X)、条件熵条件熵条件熵条件熵H(XH(X2 2/X/X1 1)和联合熵和联合熵和联合熵和联合熵H(XH(X1 1X X2 2)。P(aP(ai ia aj j)a aj ja ai i0 01 12 20 01/41/41/181/180 01 11/18

50、1/181/31/31/181/182 20 01/181/187/367/36 解解解解:根根根根据据据据概概概概率率率率关关关关系系系系可可可可计计计计算算算算得得得得条条条条件件件件概概概概率率率率P P(a aj j/a/ai i),计计计计算算算算结结结结果果果果列表如下:列表如下:列表如下:列表如下:a aj ja ai i0 01 12 20 09/119/111/81/80 01 12/112/113/43/42/92/92 20 01/81/87/97/9P(aP(ai ia aj j)a aj ja ai i0 01 12 20 01/41/41/181/180 01 11

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 生活休闲 > 生活常识

本站为文档C TO C交易模式,本站只提供存储空间、用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。本站仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知得利文库网,我们立即给予删除!客服QQ:136780468 微信:18945177775 电话:18904686070

工信部备案号:黑ICP备15003705号-8 |  经营许可证:黑B2-20190332号 |   黑公网安备:91230400333293403D

© 2020-2023 www.deliwenku.com 得利文库. All Rights Reserved 黑龙江转换宝科技有限公司 

黑龙江省互联网违法和不良信息举报
举报电话:0468-3380021 邮箱:hgswwxb@163.com