信息论与编码第二章

第二章

1对于离散无记忆信源DMS=,试证明:

HX=H2p=-p log p-1-plog1-p

当p=1/2时,HX达到最大值;

2对1中的DMS,考虑它的二次扩展信源X2=,证明:HX2=2HX;

解:

(1)函数HX=-plogp-1-plog1-p中的变量p在0到1中取值,从函数的结构上可以知道该函数在区间0,1上是关于p=1/2对称的函数;

(2)H X==-logp-1-pp1-pp1ln2+

(3)+1ln21-p-1ln2+log1-p-pln21-p

=log1-pln21-p

=log1-pp>0

在区间0,上1-p>p,则1-p/p>1,所以log,在此区间上Hx>0,Hx 单调递增;又该函数是在区间0,1上是关于p=1/2对称的函数,那么在区间,1上单调递减;

所以,HX=H2p=-plogp-1-plog1-p在p=1/2时,HX达到最大值;

2二次扩展后的矩阵:

=

HX2=-p2logp2-p1-plog2p1-p-2p1-plogp1-p

=2-plogp1-p-1-plog1-pp-21-plog1-pp-1-plog1-p=2HX

1一个无偏骰子,掷骰子的熵为多少

2 如果骰子的被改造使得某点出现的概率与其点数成正比,那么熵为多少

3一对无偏骰子,各掷一次,得到总点数为7,问得到多少信息量

解:

1 Hx= -log1/6=log6=bit/符号

2由qx i=kx i得21k=1 即 k=1/21

Hx=-1/21log1/21-2/21log2/21-3/21log3/21-4/21log4/21-5/21l og5/21-6/21log6/21=bit/符号

3IA+B=7=-log1/6=log6=bit

一个盒子中放有100个球,其中60个球是黑色的,40个球是白色的; 1随机摸取一个球,求获得的自信息量;

2进行放回摸取n次,求这n次所得到的平均自信息量;

解:

1Ix i=-log1/100=log100bit

2总信息量为:nIx1Px1+nIx2Px2

平均:1/n nIx1Px1+nIx2Px2=bit

给定信源=,

1 该信源是平稳信源吗计算信源熵;

2计算Hx3,并列出信源;

3 计算Hx3|x1x2及N维扩展信源在N趋于无穷时的熵.

解:

1 Hx= bit/符号

Hx<=NHx 是平稳信源

2Hx3==3Hx= bit/符号

X=x3={x1x1x1,x1x1x2,x2x1x1,x1x2x1,x1x2x2,x2x1x2,x2x2x1,x2x2x2} 记x i x j x t=b k,k=0 (7)

则=

3 Hx3|x1x2=-

N维扩展信源在N趋于无穷时,qx i j几乎相等;

所以,-=-=0

所以,N维扩展信源在N趋于无穷时的熵0;

证明几何分布=的熵为HX=;

证明:由题意可得,x的二维扩展概率分布为:

=

Hx=-plogp-p1-plogp1-p…-p1-p i-1logp1-p i-1

H2p=-p2logp2-p21-plogp21-p…-p21-p2i-2logp21-p2i-2

将H2p进行化简,可得:H2p=Hxp

所以,Hx=

信息论与编码理论习题答案

信息论与编码理论习题 答案 LG GROUP system office room 【LGA16H-LGYY-LGUA8Q8-LGA162】

第二章 信息量和熵 八元编码系统,码长为3,第一个符号用于同步,每秒1000个码字,求它的信息速 率。 解:同步信息均相同,不含信息,因此 每个码字的信息量为 2?8log =2?3=6 bit 因此,信息速率为 6?1000=6000 bit/s 掷一对无偏骰子,告诉你得到的总的点数为:(a) 7; (b) 12。问各得到多少信息 量。 解:(1) 可能的组合为 {1,6},{2,5},{3,4},{4,3},{5,2},{6,1} )(a p =366=6 1 得到的信息量 =) (1 log a p =6log = bit (2) 可能的唯一,为 {6,6} )(b p =361 得到的信息量=) (1 log b p =36log = bit 经过充分洗牌后的一副扑克(52张),问: (a) 任何一种特定的排列所给出的信息量是多少? (b) 若从中抽取13张牌,所给出的点数都不相同时得到多少信息量? 解:(a) )(a p =! 521 信息量=) (1 log a p =!52log = bit (b) ? ??????花色任选种点数任意排列 13413!13 )(b p =13 52134!13A ?=1352 13 4C 信息量=1313 52 4log log -C = bit 随机掷3颗骰子,X 表示第一颗骰子的结果,Y 表示第一和第二颗骰子的点数之和, Z 表示3颗骰子的点数之和,试求)|(Y Z H 、)|(Y X H 、),|(Y X Z H 、 )|,(Y Z X H 、)|(X Z H 。

信息论与编码习题与答案第二章

36 第一章 信息、消息、信号的定义?三者的关系? 通信系统的模型?各个主要功能模块及作用? 第二章 信源的分类? 自信息量、条件自信息量、平均自信息量、信源熵、不确定度、条件熵、疑义度、 噪声熵、联合熵、互信息量、条件互信息量、平均互信息量以及相对熵的概念? 计算方法? 冗余度? 具有概率为p (x )的符号x 自信息量:I (X )- -iogp (x ) 条件自信息量:|(X i = —log p (X i y i ) 平均自信息量、平均不确定度、信源熵: H (X )二-為p (x )log p (x ) i H (XY )=送 p (X i ,y j )|(X i y j ) 一瓦 ij ij 联合熵: H (XY )=:Z p (X i ,y j )I(X i ,y j ^Z p (X i ,y j )log p (X i ,y j ) ij ij 互信息: 弋 pyx)亍 pyx) l(X;Y)=W p(X i , y .)log =S p(X i )p(y . X i )log j 入儿 p(y j ) j 入儿入 p(y j ) 熵的基本性质:非负性、对称性、确定性 2.3同时掷出两个正常的骰子,也就是各面呈现的概率都为 1/6,求: (1) “3和5同时出现”这事件的自信息; (2) “两个1同时出现”这事件的自信息; (3) 两个点数的各种组合(无序)对的熵和平均信息量; (4) 两个点数之和(即2, 3, , , 12构成的子集)的熵; (5) 两个点数中至少有一个是1的自信息量。 解: (1) I (xj =-log p(xj 工「log 丄 4.170 bit 18 1 l(xj - - log p(xj - - log 5.170 bit 条件熵: p (X i ,y j )lo gp (X i y j ) p(X i ) 1111 6 6 6 6 1 18 1 p(x "6 1 36

信息论与编码第二章答案

2-1、一阶马尔可夫链信源有3个符号 {}123,,u u u ,转移概率为:1 112 ()u p u =, 2112()u p u =,31()0u p u =,1213()u p u = ,22()0u p u =,3223()u p u =,1313()u p u =,2323()u p u =,33()0u p u =。画出状态图并求出各符号稳态概率。 解:由题可得状态概率矩阵为: 1/21/2 0[(|)]1/302/31/32/30j i p s s ????=?? ???? 状态转换图为: 令各状态的稳态分布概率为1W ,2W ,3W ,则: 1W = 121W +132W +133W , 2W =121W +233W , 3W =2 3 2W 且:1W +2W +3W =1 ∴稳态分布概率为: 1W =25,2W =925,3W = 6 25 2-2.由符号集{0,1}组成的二阶马尔可夫链,其转移概率为: P(0|00)=0.8,P(0|11)=0.2,P(1|00)=0.2,P(1|11)=0.8,P(0|01)=0.5,p(0|10)=0.5,p(1|01)=0.5,p(1|10)=0.5画出状态图,并计算各符号稳态概率。 解:状态转移概率矩阵为: 令各状态的稳态分布概率为1w 、2w 、3w 、4w ,利用(2-1-17)可得方程组。 111122133144113 211222233244213 311322333344324411422433444424 0.80.50.20.50.50.20.50.8w w p w p w p w p w w w w p w p w p w p w w w w p w p w p w p w w w w p w p w p w p w w =+++=+??=+++=+?? =+++=+??=+++=+? 且12341w w w w +++=; 0.8 0.2 0 00 0 0.5 0.5()0.5 0.5 0 00 0 0.2 0.8j i p s s ???? ? ?=????? ?

信息论与编码理论第二章习题答案(王育民)

部分答案,仅供参考。 2.1信息速率是指平均每秒传输的信息量 点和划出现的信息量分别为3log ,2 3log , 一秒钟点和划出现的次数平均为 4 15314.0322.01= ⨯+⨯ 一秒钟点和划分别出现的次数平均为4 5.410 那么根据两者出现的次数,可以计算一秒钟其信息量平均为2 53log 4 153log 4 52 3log 4 10-=+ 2.3 解: (a)骰子A 和B ,掷出7点有以下6种可能: A=1,B=6; A=2,B=5; A=3,B=4; A=4,B=3; A=5,B=2; A=6,B=1 概率为6/36=1/6,所以信息量 -log(1/6)=1+log3≈2.58 bit (b) 骰子A 和B ,掷出12点只有1种可能: A=6,B=6 概率为1/36,所以信息量 -log(1/36)=2+log9≈5.17 bit 2.5解: 出现各点数的概率和信息量: 1点:1/21,log21≈4.39 bit ; 2点:2/21,log21-1≈3.39 bit ; 3点:1/7,log7≈2.81bit ; 4点:4/21,log21-2≈2.39bit ; 5点:5/21,log (21/5)≈2.07bit ; 6点:2/7,log(7/2)≈1.81bit 平均信息量: (1/21)×4.39+(2/21)×3.39+(1/7)×2.81+(4/21)×2.39+(5/21)×2.07+(2/7)×1.81≈2.4bit 2.7解: X=1:考生被录取; X=0:考生未被录取; Y=1:考生来自本市;Y=0:考生来自外地; Z=1: 考生学过英语;Z=0:考生未学过英语 P(X=1)=1/4, P(X=0)=3/4; P(Y=1/ X=1)=1/2; P(Y=1/ X=0)=1/10; P(Z=1/ Y=1)=1, P(Z=1 / X=0, Y=0)=0.4, P(Z=1/ X=1, Y=0)=0.4, P(Z=1/Y=0)=0.4 (a) P(X=0,Y=1)=P(Y=1/X=0)P(X=0)=0.075, P(X=1,Y=1)= P(Y=1/X=1)P(X=1)=0.125 P(Y=1)= P(X=0,Y=1)+ P(X=1,Y=1)=0.2 P(X=0/Y=1)=P(X=0,Y=1)/P(Y=1)=0.375, P(X=1/Y=1)=P(X=1,Y=1)/P(Y=1)=0.625 I (X ;Y=1)=∑∑=====x x ) P() 1Y /(P log )1Y /(P )1Y (I )1Y /(P x x x x;x =1) P(X ) 1Y /1X (P log )1Y /1X (P 0)P(X )1Y /0X (P log )1Y /0X (P =====+=====

信息论与编码第二章答案

p(U 2U i )=Z , P (U 3U i ) = 0, p(U i U 2)=% , P (U 2U 2)= 0 , p(U 3U 2)= % , P(0|00)=0.8,P(0|11)=0.2,P(1|00)=0.2,P(1|11)=0.8,P(0|01)=0.5,p(0|10)=0.5,p(1|01)=0.5,p(1|10)=0.5 画出状态图,并计算各符号稳态概率。 解:状态转移概率矩阵为: _ 0.8 0.2 0 01 0 0 0.5 0.5 0.5 0.5 0 0 .0 0 0.2 0.8 一 令各状态的稳态分布概率为 W,、W 2 、W 3、W 4 ,利用(2-1-17)可得方程组。 WA | =呵卩仆 +w 2 p 21 +w 3 p 31 +w 4 p 41 =0.8W | +0.5W 3 W 2 =we 12 +w 2 p 22 +w 3 p 32 +w 4 p 42 =0.2W 1 +0.5W 3 W 3 =w 1p 13 +w 2p 23 +w 3p 33 +W 4P 43 =0.5W 2 + 0.2W 4 \W 4 =we 14 +w 2p 24 +w 3p 34 +w 4p 44 =0.5W 2 +0.8W 4 P(U i U 3)=%,P(U 2U 3)=% , P (U 3 U 3) -0。画出状态图并求出各符号稳态概率。 - 1/2 1/2 0〕 [P(S j |S i )]= 1/3 0 2/3 1/3 2/3 J 令各状态的稳态分布概率为 W ,W 2,W 3,则: 1 1 1 W =_W + _W 2 + _W 3, 2 3 3 -稳态分布概率为: W 2 = Z W + 2W 3 2 3 W 3=2W 2 且: w+W 2+W 3=i 3 W =-,^=—, 5 25 6 25 2-2.由符号集{ 0 , 1 }组成的二阶马尔可夫链, 其转移概率为 P (S j sj = 解:由题可得状态概率矩阵为: 状态转换图为: 0. 8 0 2 0. 5 0 2

信息论与编码第二章答案

2—1、一阶马尔可夫链信源有3个符号 {}123,,u u u ,转移概率为:1 112 ()u p u =, 2112()u p u =,31()0u p u =,1213()u p u = ,22()0u p u =,3223()u p u =,1313()u p u =,2323()u p u =,33()0u p u =。画出状态图并求出各符号稳态概率。 解:由题可得状态概率矩阵为: 1/21/2 0[(|)]1/302/31/32/30j i p s s ⎡⎤⎢⎥=⎢⎥ ⎢⎥⎣⎦ 状态转换图为: 令各状态的稳态分布概率为1W ,2W ,3W ,则: 1W = 121W +132W +133W , 2W =121W +233W , 3W =2 3 2W 且:1W +2W +3W =1 ∴稳态分布概率为: 1W =25,2W =925,3W = 6 25 2-2。由符号集{0,1}组成的二阶马尔可夫链,其转移概率为:P(0|00)=0.8,P(0|11) =0.2,P (1|00)=0.2,P (1|11)=0.8,P(0|01)=0。5,p(0|10)=0.5,p(1|01)=0。5,p (1|10)=0。5画出状态图,并计算各符号稳态概率。 解:状态转移概率矩阵为: 令各状态的稳态分布概率为1w 、2w 、3w 、4w ,利用(2-1—17)可得方程组. 111122133144113 211222233244213 311322333344324411422433444424 0.80.50.20.50.50.20.50.8w w p w p w p w p w w w w p w p w p w p w w w w p w p w p w p w w w w p w p w p w p w w =+++=+⎧⎪=+++=+⎪⎨ =+++=+⎪⎪=+++=+⎩ 且12341w w w w +++=; 0.8 0.2 0 00 0 0.5 0.5()0.5 0.5 0 00 0 0.2 0.8j i p s s ⎡⎤⎢⎥ ⎢ ⎥=⎢⎥⎢⎥⎣⎦

信息论与编码理论第二章习题答案(王育民)

部分答案,仅供参考。 信息速率是指平均每秒传输的信息量 点和划出现的信息量分别为3log ,2 3log , 一秒钟点和划出现的次数平均为 4 153 14.0322.01= ⨯ +⨯ 一秒钟点和划分别出现的次数平均为4 5.410 那么根据两者出现的次数,可以计算一秒钟其信息量平均为2 53log 4 153log 4 52 3log 4 10-=+ 2.3 解: (a)骰子A 和B ,掷出7点有以下6种可能: A=1,B=6; A=2,B=5; A=3,B=4; A=4,B=3; A=5,B=2; A=6,B=1 概率为6/36=1/6,所以信息量 -log(1/6)=1+log3≈2.58 bit (b) 骰子A 和B ,掷出12点只有1种可能: A=6,B=6 概率为1/36,所以信息量 -log(1/36)=2+log9≈5.17 bit 2.5解: 出现各点数的概率和信息量: 1点:1/21,log21≈4.39 bit ; 2点:2/21,log21-1≈3.39 bit ; 3点:1/7,log7≈2.81bit ; 4点:4/21,log21-2≈2.39bit ; 5点:5/21,log 〔21/5〕≈2.07bit ; 6点:2/7,log(7/2)≈ 平均信息量: (1/21)×4.39+(2/21)×3.39+(1/7)×2.81+(4/21)×2.39+(5/21)×2.07+(2/7)×≈ 2.7解: X=1:考生被录取; X=0:考生未被录取; Y=1:考生来自本市;Y=0:考生来自外地; Z=1: 考生学过英语;Z=0:考生未学过英语 P(X=1)=1/4, P(X=0)=3/4; P(Y=1/ X=1)=1/2; P(Y=1/ X=0)=1/10; P(Z=1/ Y=1)=1, P(Z=1 / X=0, Y=0)=0.4, P(Z=1/ X=1, Y=0 (a) I (X ;Y=1)=∑∑=====x x ) P() 1Y /(P log )1Y /(P )1Y (I )1Y /(P x x x x;x =1) P(X ) 1Y /1X (P log )1Y /1X (P 0)P(X )1Y /0X (P log )1Y /0X (P =====+=====

信息论与编码理论习题答案全解

信息论与编码理论习题答案全解

第二章 信息量和熵 2.2 八元编码系统,码长为3,第一个符号用于同步,每秒1000个码字,求它的 信息速率。 解:同步信息均相同,不含信息,因此 每个码字的信息量为 2⨯8log =2⨯3=6 bit 因此,信息速率为 6⨯1000=6000 bit/s 2.3 掷一对无偏骰子,告诉你得到的总的点数为:(a) 7; (b) 12。问各得到多少 信息量。 解:(1) 可能的组合为 {1,6},{2,5},{3,4},{4,3},{5,2},{6,1} )(a p =366=6 1 得到的信息量 =) (1 log a p =6log =2.585 bit (2) 可能的唯一,为 {6,6} )(b p =361 得到的信息量=) (1 log b p =36log =5.17 bit 2.4 经过充分洗牌后的一副扑克(52张),问: (a) 任何一种特定的排列所给出的信息量是多少? (b) 若从中抽取13张牌,所给出的点数都不相同时得到多少信息量? 解:(a) )(a p =! 521 信息量=) (1 log a p =!52log =225.58 bit (b) ⎩⎨⎧⋯⋯⋯⋯花色任选 种点数任意排列 13413!13 )(b p =13 52134!13A ⨯=1352 13 4C 信息量=1313 524log log -C =13.208 bit

即)0;(1u I ,)00;(1u I ,)000;(1u I ,)0000;(1u I )0(p =4)1(81⨯-p +481⨯p =2 1 )0;(1u I =) 0()|0(log 1p u p =2 11log p -=1+)1log(p - bit )00(p =]2)1(4)1(2[8122p p p p +-+-=4 1 )00;(1u I =)00()|00(log 1p u p =4/1)1(log 2 p -=)]1log(1[2p -+ bit )000(p =])1(3)1(3)1[(813223p p p p p p +-+-+-=8 1 )000;(1u I =3[1+)1log(p -] bit )0000(p =])1(6)1[(8 1 4224p p p p +-+- )0000;(1u I =4 2244 )1(6)1()1(8log p p p p p +-+-- bit 2.12 计算习题2.9中);(Z Y I 、);(Z X I 、);,(Z Y X I 、)|;(X Z Y I 、)|;(Y Z X I 。 解:根据题2.9分析 )(Z H =2(216log 2161+3216log 2163+6216log 2166+10 216log 21610+ 15216log 21615+21216log 21621+25216log 21625+27 216 log 21627) =3.5993 bit );(Z Y I =)(Z H -)|(Y Z H =)(Z H -)(X H =1.0143 bit );(Z X I =)(Z H -)|(X Z H =)(Z H -)(Y H =0.3249 bit );,(Z Y X I =)(Z H -)|(XY Z H =)(Z H -)(X H =1.0143 bit

信息论与编码第二章课后答案

信息论与编码第二章课后答案在信息科学领域中,信息论和编码是两个息息相关的概念。信息论主要研究信息的传输和处理,包括信息的压缩、传输的准确性以及信息的安全性等方面。而编码则是将信息进行转换和压缩的过程,常用的编码方式包括霍夫曼编码、香农-费诺编码等。 在《信息论与编码》这本书的第二章中,涉及了信息的熵、条件熵、熵的连锁法则等概念。这些概念对于信息理解和编码实现有着重要的意义。 首先是信息的熵。熵可以简单理解为信息的不确定性。当信息的发生概率越大,它的熵就越小。比如说,一枚硬币的正反面各有50%的概率,那么它的熵就是1bit。而如果硬币只有正面,那么它的熵就是0bit,因为我们已经知道了结果,不再有任何不确定性。 其次是条件熵。条件熵是在已知某些信息(即条件)的前提下,对信息的不确定性进行量化。它的定义为已知条件下,信息的熵的期望值。比如说,在猜词游戏中,我们手中已经有一些字母的信息,那么此时猜测单词的不确定性就会下降,条件熵也就会减少。

除了熵和条件熵之外,连锁法则也是信息理解和编码实现中的 重要概念。连锁法则指的是一个信息在不同时刻被传输的情况下,熵的变化情况。在信息传输的过程中,信息的熵可能会发生改变。这是因为在传输过程中,可能会发生噪声或者数据重复等情况。 而连锁法则就是用来描述这种情况下信息熵的变化情况的。 最后,霍夫曼编码和香农-费诺编码是两种比较常用的编码方式。霍夫曼编码是一种无损压缩编码方式,它可以将出现频率高的字 符用较短的二进制编码表示,出现频率较低的字符用较长的二进 制编码表示。香农-费诺编码则是一种用于无失真信源编码的方法,可以把每个符号用尽可能短的二进制串来表示,使得平均码长最 小化。 总的来说,信息论和编码是信息科学中非常重要的两个概念。 通过对信息熵、条件熵、连锁法则等的探讨和了解,可以更好地 理解信息及其传输过程中的不确定性和数据处理的方法。而霍夫 曼编码和香农-费诺编码则是实现数据压缩和传输的常用编码方式。

信息论与编码第二章

信息论与编码第二章 LELE was finally revised on the morning of December 16, 2020

第二章 (1)对于离散无记忆信源DMS=,试证明: H(X)=H2(p)=-p log p-(1-p)log(1-p) 当p=1/2时,H(X)达到最大值。 (2)对(1)中的DMS,考虑它的二次扩展信源X(2) =,证明:H(X(2))=2H(X)。 解: (1)函数H(X)=-plogp-(1-p)log(1-p)中的变量p在0到1中取值,从函数的结构上可以知道该函数在区间[0,1]上是关于p=1/2对称的函数。 (2)H(X)==-log(p-1)-pp(1-p)p1ln2+ (3)+1ln2(1-p)-1ln2+log(1-p)-pln2(1-p) =log1-pln2(1-p) =log(1-p)p>0 在区间[0,]上1-p>p,则(1-p)/p>1,所以log,在此区间上H(x)>0,H(x)单调递增。又该函数是在区间[0,1]上是关于p=1/2对称的函数,那么在区间[,1]上单调递减。 所以,H(X)=H2(p)=-plogp-(1-p)log(1-p)在p=1/2时,H(X)达到最大值。 (2)二次扩展后的矩阵:

= H(X(2))=-p2logp2-p(1-p)log2p(1-p)-2p(1-p)logp(1-p) =2[-plogp(1-p)-(1-p)log(1-p)p-2(1-p)log(1-p)p-(1-p)lo g(1-p)]=2H(X ) (1)一个无偏骰子,掷骰子的熵为多少? (2)如果骰子的被改造使得某点出现的概率与其点数成正比,那么熵为多少? (3)一对无偏骰子,各掷一次,得到总点数为7,问得到多少信息量? 解: (1) H(x)= -log1/6=log6=(bit/符号) (2)由q(x i)=kx i得21k=1 即 k=1/21 H(x)=-1/21(log1/21)-2/21(log2/21)-3/21(log3/21)- 4/21(log4/21)-5/21(log5/21)-6/21(log6/21)=(bit/符号)(3)I(A+B=7)=-log1/6=log6=(bit) 一个盒子中放有100个球,其中60个球是黑色的,40个球是白色的。 (1)随机摸取一个球,求获得的自信息量。

信息论与编码第二章习题参考答案

2.1 同时掷两个正常的骰子,也就是各面呈现的概率都是1/6,求: (1)“3和5同时出现”事件的自信息量; (2)“两个1同时出现”事件的自信息量; (3)两个点数的各种组合(无序对)的熵或平均信息量; (4)两个点数之和(即2,3,…,12构成的子集)的熵; (5)两个点数中至少有一个是1的自信息。 解:(1)一个骰子点数记为X ,另一个骰子的点数记做Y ,X 、Y 之间相互独立,且都服从等概率分布,即 同理 一个骰子点数为3,另一个骰子点数为5属于组合问题,对应的概率为 18 1616161613Y Py 5X Px 5Y Py 3X Px P 1=⨯+⨯===+===)()()()( 对应的信息量为 比特)()(17 .418 1 -lb P -I 11===lb (2)两个骰子点数同时为1的概率为 )()(36 1 1Y Py 1X Px P 2= === 对应的信息量为 比特)( )(17.536 1 -lb P -I 22===lb (3)各种组合及其对应的概率如下 ,6,5,4,3,2,1Y X 36 1 6161Y X P === ⨯==)(共6种可能 18 1 61612Y X P =⨯⨯=≠)( 共有15种可能 因此对应的熵或者平均自信息量为 34.418 118115-3613616-H 1=⨯⨯⨯⨯ =)()(lb lb 比特/符号 (4)令Z=X+Y ,可以计算出Z 对应的概率分布如下

对应的熵为 符号 比特) ()()()()()()(/1.914366 366-3653652-3643642-3633632-3633632-3623622-361361-2H 1=⨯⨯⨯⨯⨯⨯⨯⨯⨯⨯⨯⨯⨯ =lb lb lb lb lb lb lb (5)X 、Y 相互独立,所以联合熵为 比特)()(597 .06 162Y X,I =⨯=lb 2.2 设在一只布袋中装有100个大小、手感完全相同的球,每个球上涂有一种颜色。100个球的颜色有下列3种情况: (1)红色球和白色球各50个; (2)红色球99个,白色球1个; (3)红、黄、蓝、白色球各25个。 分别求出从布袋中随意取出一个球时,猜测其颜色所需要的信息量。 解: (1) 两种颜色的球服从等概率分布,即 2 1P P = =白红 对应信息量为1I I ==白红比特 (2) 两种颜色的球对应概率分别为 10099P = 红 100 1P =白 对应的概率分别为 0145.0100 99 -P -l I ===lb b 红红比特 644.6100 1 -P -I ===lb lb 白白比特 (3) 四种球服从等概率分布,因此对应的自信息量为 24 1 -I ==lb 比特

信息论与编码的课程第二章作业答案

2.1一个马尔可夫信源有3个符号 {} 1,23,u u u ,转移概率为: ()11|1/2p u u =,()21|1/2p u u =,()31|0p u u =, ()12|1/3p u u =,()22|0p u u =,()32|2/3p u u =,()13|1/3p u u =,()23|2/3p u u =,()33|0p u u =,画出状态图并求出各符号稳态概率。 解:状态图如下 状态转移矩阵为: 1/21/2 01/302/31/32/30p ⎛⎫ ⎪= ⎪ ⎪⎝⎭ 设状态u 1,u 2,u 3稳定后的概率分别为W 1,W 2、W 3 由1231WP W W W W =⎧⎨++=⎩得1231132231231 112331223 231W W W W W W W W W W W W ⎧++=⎪⎪⎪+=⎪⎨⎪=⎪⎪⎪++=⎩ 计算可得1231025925625W W W ⎧=⎪⎪⎪ =⎨⎪ ⎪=⎪⎩ 2.2 由符号集{0,1}组成的二阶马尔可夫链,其转移概率为: (0|00)p =0.8,(0|11)p =0.2,(1|00)p =0.2,(1|11)p =0.8, (0|01)p =0.5,(0|10)p =0.5,(1|01)p =0.5,(1|10)p =0.5。画出状态图,并计算各状态的稳态概率。 解: (0|00)(00|00)0.8p p == (0|01)(10|01)0.5p p == (0|11)(10|11)0.2p p == (0|10)(00|10)0.5p p == (1|00)(01|00)0.2p p == (1|01)(11|01)0. p p == (1|11)(11|11)0.8p p == (1|10)(01|10)0.5p p == 于是可以列出转移概率矩阵:0.80.20 0000.50.50.50.500000.20.8p ⎛⎫ ⎪ ⎪= ⎪ ⎪⎝⎭

信息论与编码第二章曹雪虹习题答案

2.1一个马尔可夫信源有3个符号{}1,23,u u u ,转移概率为:()11|1/2p u u =, ()21|1/2p u u =,()31|0p u u =,()12|1/3p u u =,()22|0p u u =,()32|2/3p u u =, ()13|1/3p u u =,()23|2/3p u u =,()33|0p u u =,画出状态图并求出各符号稳态概率。 解:状态图如下 状态转移矩阵为: 1/21/2 01/302/31/32/30p ⎛⎫ ⎪= ⎪ ⎪⎝⎭ 设状态u 1,u 2,u 3稳定后的概率分别为W 1,W 2、W 3 由1231WP W W W W =⎧⎨++=⎩得1231132231231 112331223 231W W W W W W W W W W W W ⎧++=⎪⎪⎪+=⎪⎨⎪=⎪⎪⎪++=⎩ 计算可得1231025925625W W W ⎧=⎪⎪⎪ =⎨⎪ ⎪=⎪⎩ 2.2 由符号集{0,1}组成的二阶马尔可夫链,其转移概率为:(0|00)p =0.8,(0|11)p =0.2, (1|00)p =0.2,(1|11)p =0.8,(0|01)p =0.5,(0|10)p =0.5,(1|01)p =0.5,(1|10)p =0.5。 画出状态图,并计算各状态的稳态概率。 解:(0|00)(00|00)0.8p p == (0|01) (10|01)p p == (0|11)(10|11)0.2p p == (0|10)(00|10)p p == (1|00)(01|00)0.2p p == (1|01)(11|01)p p == (1|11)(11|11)0.8p p == (1|10)(01|10)0.5p p ==

信息论与编码第二章答案

信息论与编码第二章答案

2-1、一阶马尔可夫链信源有3个符号{}123,,u u u ,转移概率为: 1112 ()u p u =, 2112 ()u p u =, 31()0 u p u =, 1213()u p u = ,2 2()0 u p u =,3 22 3 ()u p u =,1 31 3 ()u p u =,2 32 3 ()u p u =, 33()0u p u =。画出状态图并求出各符 号稳态概率。 解:由题可得状态概率矩阵为: 1/21/2 0[(|)]1/302/31/32/30j i p s s ⎡⎤⎢⎥=⎢⎥ ⎢⎥⎣⎦ 状态转换图为: 令各状态的稳态分布概率为1 W ,2 W ,3 W ,则: 1 W =121 W +132 W +1 3 3 W , 2 W =121 W +2 3 3 W , 3 W =2 3 2 W 且:1 W +2 W +3 W =1 ∴ 稳态分布概率为: 1 W =25,2 W =9 25,3 W = 6 25 2-2.由符号集{0,1}组成的二阶马尔可夫链,其 转 移 概 率 为 : P(0|00)=0.8,P(0|11)=0.2,P(1|00)=0.2,P(1|11)=0.8,P(0|01)=0.5,p(0|10)=0.5,p(1|01)=0.5,p(1|10)=0.5画出状态图,并计算各符号稳态概率。 解:状态转移概率矩阵为:

信息为熵为:12 2 ()1() 3.27i i i H p x bp x bit ==-=∑ (5)两个点数之中至少有一个是1的概率为:3 11()36 p x = 3 11I(x )=-lb 1.1736 bit ∴= 2-4.设在一只布袋中装有100个用手触摸感觉完全相同的木球,每个球上涂有一种颜色。100个球的颜色有下列三种情况: (1)红色球和白色球各50个; (2)红色球99个,白色球1个; (3)红、黄、蓝、白色球各25个。 分别求出从布袋中随意取出一个球时,猜测其颜色所需要的信息量。 解:(1)设取出的红色球为1 x ,白色球为2 x ; 有1 1()2p x =,2 1()2 p x = 则有:1111 ()()2222 H X lb lb =-+=1bit/事件 (2) 1()0.99p x =,2()0.01 p x =; 则有:()(0.990.990.010.01)H X lb lb =-+=0.081(bit/事件) (3)设取出红、黄、蓝、白球各为1 x 、2 x 、3 x 、 4 x ,有1 2 3 4 1()()()()4 p x p x p x p x ==== 则有:11()4()244 H X lb bit =-=/事件

信息论与编码第2章答案

《信息论与编码》-雪虹-课后习题答案 第二章 2.1 —个马尔可夫信源有3个符号{iii.u2.ny},转移概率为:卩("[1“[) = 1/2, /?(W2 IZVI )= 1/2 , /7(//3l«l) = O , /7(M1 I M2)= 1/3 , /7(Z/2 I W2)= 0 , 0("3 I "2)= 2/3 , P (WI I«3)= 1/3, p©2lu3)= 2/3, p(inl“3)= 0,画出状态图并求出各符号稳态概率。 解:状态图如下 状态转移矩阵为: '1/2 1/2 0 “ p= 1/3 2/3 J/3 2/3 0 丿 设状态ui, gm 稳定后的概率分别为W], W2、W 3 2.2由符号集{0,廿组成的二阶马尔可夫链,其转移概率为:p(OIOO)=O.8, ”(0111)=0.2, p(ll00) =0.2 , p(llll) =0.8 , p(OIOl) =0.5 , p(0110) =0.5 , p(ll01) =0.5 , p(l 110)=0.5。画出状态图,并计算各状态的稳态概率。 解:p(OIOO) = p(OOIOO)=O.8 p (oiii )= /?(iour )=o.2 p(l 100) = 7X01100) = 0.2 “(II11) = “(11111) = 0.8 扑+护+扑十 WP = W W\ + W2 + Wi = \ 计算可得 -W2 = Wi 3 W\ + W2 + Wi = \ Wi = — 25 W1 = — 25 W^ = — 25 “(0l01) = p(10l01) = 0・5 p(OllO) = p(OOIlO) = O ・5 “(II01) = “(11101) = 0.5 p(l 110) = p(01110) = 0.5

信息论与编码第2章习题解答

2.1设有12枚同值硬币,其中一枚为假币。只知道假币的重量与真币的重量不同,但不知究竟是重还是轻。现用比较天平 左右两边轻重的方法来测量(因无砝码)。为了在天平上称出哪一枚是假币,试问至少必须称多少次? 解:分三组,每组4个,任意取两组称。会有两种情况,平衡,或不平衡。 (1) 平衡: 明确假币在其余的4个里面。从这4个里面任意取3个,并从其余8个好的里面也取3个称。又有 两种情况:平衡或不平衡。 a )平衡:称一下那个剩下的就行了。 b )不平衡:我们至少知道那组假币是轻还是重。 从这三个有假币的组里任意选两个称一下,又有两种情况:平衡与不平衡,不过我们已经知道假币的轻重情况了,自然的,不平衡直接就知道谁是假币;平衡的话,剩下的呢个自然是假币,并且我们也知道他是轻还是重。 (2) 不平衡: 假定已经确定该组里有假币时候: 推论1:在知道该组是轻还是重的时候,只称一次,能找出假币的话,那么这组的个数不超过3。 我们知道,只要我们知道了该组(3个)有假币,并且知道轻重,只要称一次就可以找出来假币了。 从不平衡的两组中,比如轻的一组里分为3和1表示为“轻(3)”和“轻(1)”,同样重的一组也是分成3和1标示为“重(3)”和“重(1)”。在从另外4个剩下的,也就是好的一组里取3个表示为“准(3)”。交叉组合为: 轻(3) + 重(1) ?=======? 轻(1) + 准(3) 来称一下。又会有3种情况: (1)左面轻:这说明假币一定在第一次称的时候的轻的一组,因为“重(1)”也出现在现在轻的一边,我们已经知道,假 币是轻的。那么假币在轻(3)里面,根据推论1,再称一次就可以了。 (2)右面轻:这里有两种可能: “重(1)”是假币,它是重的,或者“轻(1)”是假币,它是轻的。这两种情况,任意 取这两个中的一个和一个真币称一下即可。 (3)平衡:假币在“重(3)”里面,而且是重的。根据推论也只要称一次即可。 2.2 同时扔一对骰子,当得知“两骰子面朝上点数之和为2”或“面朝上点数之和为8”或“骰子面朝上之和是3和4”时, 试问这三种情况分别获得多少信息量? 解:设“两骰子面朝上点数之和为2”为事件A ,则在可能出现的36种可能中,只能个骰子都为1,这一种结果。即: P (A )=1/36,I (A )= 2log P (A )=2log 36≈5.17 比特 设“面朝上点数之和为8”为事件B ,则有五种可能:2、6;6、2;4、4;3、5;5、3;即: P (B )= 5/36,I (B )= 2log P (B )= 2log 36/5≈2.85 比特 设“骰子面朝上之和是3和4”为事件C ,则有两种可能:3、4;4、3;即: P (C )= 2/36,I (C )= 2log P (C )= 2log 36/2≈4.17 比特 2.3 如果你在不知道今天是星期几的情况下问你的朋友“明天是星期几?”则答案中含有多少信息量?如果你在已知今天是 星期四的情况下提出同样的问题,则答案中你能获得多少信息量(假设已知星期一至星期日的排序) 解:(1)P =1/7 I =-Log 2P =-Log 27 (2)已知今天星期四,问明天是星期几? 即:明天是星期五是必然事件,不存在不确定性,I =0。 2.4地区的女孩中有25%是大学生,在女大学生中有75%是身高1.6米以上的,而女孩中身高1.6米以上的占半数一半。假 如我们得知“身高1.6米以上的某女孩是大学生”的消息,问获得多少信息量? 解:设A 为女大学生,B 为1.6米以上的女孩 则依题意有:1()4P A = , 1()2P B =, 3(|)4 P B A = 133()()(|)4416 P AB P A P B A ==⨯=

信息论与编码(第二版)曹雪虹(最全版本)答案

《信息论与编码(第二版)》曹雪虹答案 第二章 2.1一个马尔可夫信源有3个符号{}1,23,u u u ,转移概率为:()11|1/2p u u =,()21|1/2p u u =, ()31|0p u u =,()12|1/3p u u =,()22|0p u u =,()32|2/3p u u =,()13|1/3p u u =,()23|2/3p u u =,()33|0p u u =,画出状态图并求出各符号稳态概率。 解:状态图如下 状态转移矩阵为: 1/21/2 01/302/31/32/30p ⎛⎫ ⎪= ⎪ ⎪⎝⎭ 设状态u 1,u 2,u 3稳定后的概率分别为W 1,W 2、W 3 由1231WP W W W W =⎧⎨++=⎩得1231132231231 112331223231 W W W W W W W W W W W W ⎧++=⎪⎪⎪+=⎪⎨⎪=⎪⎪⎪++=⎩计算可得1231025925625W W W ⎧=⎪⎪⎪ =⎨ ⎪ ⎪=⎪⎩ 2.2 由符号集{0,1}组成的二阶马尔可夫链,其转移概率为:(0|00)p =0.8,(0|11)p =0.2, (1|00)p =0.2,(1|11)p =0.8,(0|01)p =0.5,(0|10)p =0.5,(1|01)p =0.5,(1|10)p =0.5。画出状态 图,并计算各状态的稳态概率。 解:(0|00)(00|00)0.8p p == (0|01)(10|01)0.5p p == (0|11)(10|11)0.2p p == (0|10)(00|10)0.5p p == (1|00)(01|00)0.2p p == (1|01)(11|01)0.5p p == (1|11)(11|11)0.8p p == (1|10)(01|10)0.5p p ==

相关主题
相关文档
最新文档