信息论与编码期末考试题----学生复习用1

信息论与编码期末考试题----学生复习用1
信息论与编码期末考试题----学生复习用1

一、判断题.

1. 当随机变量X 和Y 相互独立时,条件熵)|(Y X H 等于信源熵)(X H . ( )

2. 由于构成同一空间的基底不是唯一的,所以不同的基底或生成矩阵有可能生成同一码集. ( )

3.一般情况下,用变长编码得到的平均码长比定长编码大得多. ( )

4. 只要信息传输率大于信道容量,总存在一种信道编译码,可以以所要求的任意小的误差概率实现可靠的通信. ( )

5. 各码字的长度符合克拉夫特不等式,是唯一可译码存在的充分和必要条件. ( )

6. 连续信源和离散信源的熵都具有非负性. ( )

7. 信源的消息通过信道传输后的误差或失真越大,信宿收到消息后对信源存在的不确 定性就越小,获得的信息量就越小.

8. 汉明码是一种线性分组码. ( ) 9. 率失真函数的最小值是0. ( ) 10.必然事件和不可能事件的自信息量都是0. ( )

二、填空题

1、码的检、纠错能力取决于 .

2、信源编码的目的是 ;信道编码的目的是 .

3、把信息组原封不动地搬到码字前k 位的),(k n 码就叫做 .

4、香农信息论中的三大极限定理是 、 、 .

5、设信道的输入与输出随机序列分别为X 和Y ,则),(),(Y X NI Y X I N

N

=成立的

条件 .

6、对于香农-费诺编码、原始香农-费诺编码和哈夫曼编码,编码方法惟一的是 .

7、某二元信源0

1()1/21/2X P X ????=???

?

????

,其失真矩阵00a D a ??=????,则该信源的max D = . 三、计算题.

1、某信源发送端有2种符号i x )2,1(=i ,a x p =)(1;接收端有3种符号i y )3,2,1(=j ,转移概率矩阵为1/21/201/21/41/4P ??

=??

??

. (1) 计算接收端的平均不确定度()H Y ; (2) 计算由于噪声产生的不确定度(|)H Y X ; (3) 计算信道容量以及最佳入口分布.

信源X 的符号集为}2,1,0{.

2、一阶马尔可夫信源的状态转移图如右图所示,

(1)求信源平稳后的概率分布; (2)求此信源的熵;

(3)近似地认为此信源为无记忆时,符号的概率分布为平

稳分布.求近似信源的熵)(X H 并与H ∞进行比较.

图2-13

3、设码符号为}2,1,0{=X ,信源空间为?

?

??

??05.005.005.005.01.01.02.04.08765

4321s s s s s s s s 试构造一种三元紧致码.

4、设二元)4,7(线性分组码的生成矩阵为?

?

???

????

???=1000101

01001110010110

0001011G . (1)给出该码的一致校验矩阵,写出所有的陪集首和与之相对应的伴随式;

(2)若接收矢量)0001011(=v ,试计算出其对应的伴随式S 并按照最小距离译码准则 试着对其译码.

(二)

一、填空题

1、信源编码的主要目的是 ,信道编码的主要目的是 。

2、信源的剩余度主要来自两个方面,一是 ,二是 。

3、三进制信源的最小熵为 ,最大熵为 。

4、无失真信源编码的平均码长最小理论极限制为 。

5、当 时,信源与信道达到匹配。

6、根据信道特性是否随时间变化,信道可以分为 和 。

7、根据是否允许失真,信源编码可分为 和 。

8、若连续信源输出信号的平均功率为2σ,则输出信号幅度的概率密度是 时,信源具有最大熵,其值为值 。

9、在下面空格中选择填入数学符号“,,,=≥≤?”或“?”

(1)当X 和Y 相互独立时,H (XY ) H(X)+H(X/Y) H(Y)+H(X)。

(2)()()

1222H X X H X = ()()12333

H X X X H X =

(3)假设信道输入用X 表示,信道输出用Y 表示。在无噪有损信道中,H(X/Y) 0, H(Y/X) 0,I(X;Y) H(X)。

二、若连续信源输出的幅度被限定在【2,6】区域内,当输出信号的概率密度是均匀分布时,计算该信源的相对熵,并说明

该信源的绝对熵为多少。

三、已知信源

1234560.20.20.20.20.10.1S s s s s s s P ????=????????

(1)用霍夫曼编码法编成二进制变长码;(6分) (2)计算平均码长L ;(4分)

(3)计算编码信息率R ';(2分)

(4)计算编码后信息传输率R ;(2分)

(5)计算编码效率η。(2分)

四、某信源输出A 、B 、C 、D 、E 五种符号,每一个符号独立出现,出现概率分别为1/8、1/8、1/8、1/2、1/8。如果符号的码元宽度为s μ。计算:

(1)信息传输速率t R 。(5分)

(2)将这些数据通过一个带宽为B=2000kHz 的加性白高斯噪声信道传输,噪声的单边功率谱密度为6010W n Hz

-=。试计算

正确传输这些数据最少需要的发送功率P 。(5分)

五、一个一阶马尔可夫信源,转移概率为()()()()1121122221

|,|,|1,|033

P S S P S S P S S P S S ====。 (1) 画出状态转移图。(4分) (2) 计算稳态概率。(4分)

(3) 计算马尔可夫信源的极限熵。(4分)

(4) 计算稳态下1H ,2H 及其对应的剩余度。(4分)

六、设有扰信道的传输情况分别如图所示。试求这种信道的信道容量。

X

Y

七、设X 、Y 是两个相互独立的二元随机变量,其取0或1的概率相等。定义另一个二元随机变量Z=XY(一般乘积)。试计算 (1) ()(),;H X H Z (2) ()(),;H XY H XZ (3) ()()|,|;H X Y H Z X (4) ()();,;I X Y I X Z ;

八、设离散无记忆信源的概率空间为120.80.2X x x P ????

=????????

,通过干扰信道,信道输出端的接收符号集为[]12,Y y y =,信道传

输概率如下图所示。

1

x 2

x 1

y 2

y

(1) 计算信源X 中事件1x 包含的自信息量; (2) 计算信源X 的信息熵; (3) 计算信道疑义度()|H X Y ; (4) 计算噪声熵()|H Y X ;

(5) 计算收到消息Y 后获得的平均互信息量。

《信息论基础》参考答案

一、填空题

1、信源编码的主要目的是提高有效性,信道编码的主要目的是提高可靠性。

2、信源的剩余度主要来自两个方面,一是信源符号间的相关性,二是信源符号的统计不均匀性。

3、三进制信源的最小熵为0,最大熵为32log bit/符号。

4、无失真信源编码的平均码长最小理论极限制为信源熵(或H(S)/logr= H r (S))。

5、当R=C 或(信道剩余度为0)时,信源与信道达到匹配。

6、根据信道特性是否随时间变化,信道可以分为恒参信道和随参信道。

7、根据是否允许失真,信源编码可分为无失真信源编码和限失真信源编码。

8、若连续信源输出信号的平均功率为2

σ,则输出信号幅度的概率密度是高斯分布或正态分布或()22

2x f x σ-=

时,信源

具有最大熵,其值为值21

log 22

e πσ。

9、在下面空格中选择填入数学符号“,,,=≥≤?”或“?”

(1)当X 和Y 相互独立时,H (XY )=H(X)+H(X/Y)=H(Y)+H(X)。

(2)()()

1222H X X H X =≥()()12333

H X X X H X = (3)假设信道输入用X 表示,信道输出用Y 表示。在无噪有损信道中,H(X/Y)> 0, H(Y/X)=0,I(X;Y)

二、若连续信源输出的幅度被限定在【2,6】区域内,当输出信号的概率密度是均匀分布时,计算该信源的相对熵,并说明该信源的绝对熵为多少。

()1

,26

4

0,x f x ?≤≤?=???其它

()()()6

2

log f x f x dx ∴=-?相对熵h x

=2bit/自由度

该信源的绝对熵为无穷大。

三、已知信源

1234560.20.20.20.20.10.1S s s s s s s P ????=????????

(1)用霍夫曼编码法编成二进制变长码;(6分) (2)计算平均码长L ;(4分)

(3)计算编码信息率R ';(2分)

(4)计算编码后信息传输率R ;(2分) (5)计算编码效率η。(2分)

(1)

010

10

1

1

1

1.00.20.20.20.20.10.1

1S 2S 3S 4S 5S 6

S

编码结果为:

1234560001100101110111

S S S S S S ====== (2)6

10.420.63 2.6i i i L P ρ===?+?=∑码元

符号

(3)bit log r=2.6R L '=符号

(4)() 2.53

bit

0.9732.6H S R L ===码元其中,()()bit 0.2,0.2,0.2,0.2,0.1,0.1 2.53H S H ==符号 (5)()()0.973log H S H S L r

L

η=

=

=

四、某信源输出A 、B 、C 、D 、E 五种符号,每一个符号独立出现,出现概率分别为1/8、1/8、1/8、1/2、1/8。如果符号的码元

宽度为s μ。计算: (1)信息传输速率t R 。

(2)将这些数据通过一个带宽为B=2000kHz 的加性白高斯噪声信道传输,噪声的单边功率谱密度为6010W n Hz

-=。试计算

正确传输这些数据最少需要的发送功率P 。 解:

(1)()()

1

t X R H X H Y t ??=-?

?

()61111log 4log 882211

log 8log 22231

log 2log 2222log 22bit

24100.5t H X bit

R bps

s

μ=-

?-=+=+===

=?

(2)666

62410210log 1102101226P P

P W

-??

?=?+ ?

????

+==

五、一个一阶马尔可夫信源,转移概率为

()()()()1121122221

|,|,|1,|033

P S S P S S P S S P S S ====。

(1) 画出状态转移图。

(2) 计算稳态概率。

(3) 计算马尔可夫信源的极限熵。

(4) 计算稳态下1H ,2H 及其对应的剩余度。 解:(1)

S

13

(2)由公式()()()2

1

|i i

j j j P S P S

S P S ==

有()()()()()()()()()

()()2

111212

2211122|31|31i i i i i i P S P S S P S P S P S P S P S S P S P S P S P S ==?

==+??

?==??

?+=??

∑∑ 得()()12

341

4

P S P S ?

=???

?=?? (3)该马尔可夫信源的极限熵为:

()()()

22

11

|log |322311log log

43343311

0.578 1.599240.6810.4720.205i j i j i i j H P S P S S P S S bit nat hart ∞===-=-??-??=?+?===∑∑符号符号符号

(4)在稳态下:

()()2

1

3

311log log log 0.8114444i i i P x P x bit =??=-=-?+?= ???∑符号

20.2050.4720.681H H hart nat bit ∞====符号符号符号

对应的剩余度为

1100.811110.1891111log log 2222H H η=-

=-=??

????-+ ? ? ???????

2200.681110.3191111log log 2222H H η=-

=-=??

????-+ ? ? ???????

六、设有扰信道的传输情况分别如图所示。试求这种信道的信道容量。

X

Y

解:信道传输矩阵如下

|110022110022110022110

2

2Y X

P ??????????=????????????

可以看出这是一个对称信道,L=4,那么信道容量为

()()

111log 4,,0,022log |log |11

log 42log

22

1L

j i j i j C H L p y x p y x bit

=??

=- ?

??

=+=+?=∑

七、设X 、Y 是两个相互独立的二元随机变量,其取0或1的概率相等。定义另一个二元随机变量Z=XY(一般乘积)。试计算 (1) ()(),;H X H Z (2) ()(),;H XY H XZ (3) ()()|,|;H X Y H Z X (4) ()();,;I X Y I X Z ; 解:(1)

()11,122H X H bit ??

== ???

31(2),0.811344H H bit ??

== ???

(2) ()()()112H XY H X H Y bit =+=+=对

()()()()1111|11,0, 1.52222H XZ H X H Z X H H bit ??

=+=++= ???

(3) ()()|1H X Y H X bit ==

()()1111|1,0,0.52222H Z X H H bit ??

=

+= ???

(4) ()()()()(),|0I X Y H Y H Y X H Y H Y =-=-=

()()(),|0.81130.50.3113I X Z H Z H Z X bit =-=-=

八、设离散无记忆信源的概率空间为120.80.2X x x P ????

=????????

,通过干扰信道,信道输出端的接收符号集为[]12,Y y y =,信道传

输概率如下图所示。

1

x 2

x 1

y 2

y

(6) 计算信源X 中事件1x 包含的自信息量; (7) 计算信源X 的信息熵; (8) 计算信道疑义度()|H X Y ; (9) 计算噪声熵()|H Y X ;

(10) 计算收到消息Y 后获得的平均互信息量。 解:

(1) ()1log0.80.3220.09690.223I x bit hart nat =-=== (2) ()()0.8,0.20.7220.50.217H X H bit nat hart ====符号符号 (3)转移概率:

联合分布:

()2231,,,31520201.4040.9730.423H XY H bit nat hart ??

= ?

??===符号

()()49/60,11/600.6870.4760.207H Y H bit nat hart ====符号符号符号 ()()()|0.7170.4970.216H X Y H XY H Y bit nat hart =-===符号

(4)

()()()|0.6820.4730.205H Y X H XY H X bit nat hart =-===符号符号

(5)

()()();|0.005040.003490.00152I X Y H X H X Y bit nat hart =-===符号符号符号

(三)

一、 选择题

1、有一离散无记忆信源X ,其概率空间为??????=??????125.0125.025.05.04321

x x x x P X ,则其无记忆二次扩展信源的熵H(X 2)=( )

A 、比特/符号;

B 、比特/符号;

C 、9比特/符号;

D 、18比特/符号。

2、信道转移矩阵为112132425363(/)(/)

000000(/)(/)000000(/)(/)P y x P y x P y x P y x P y x P y x ??????

????

,其中(/)j i P y x 两两不相等,则该信道为

A 、一一对应的无噪信道

B 、具有并归性能的无噪信道

C 、对称信道

D 、具有扩展性能的无噪信道

3、设信道容量为C ,下列说法正确的是:( )

A 、互信息量一定不大于C

B 、交互熵一定不小于

C C 、有效信息量一定不大于C

D 、条件熵一定不大于C

4、在串联系统中,有效信息量的值( )

A 、趋于变大

B 、趋于变小

C 、不变

D 、不确定

5、若BSC 信道的差错率为P ,则其信道容量为:( ) A 、

()

H p

B 、

()12log 1p

p p p -??-??

???? C 、

()

1H p -

D 、log()P P -

二、填空题

1、 (7,4)线性分组码中,接受端收到分组R 的位数为____ ,伴随式S 可能的值有____ 种,差错图案e 的长度为 ,系统生成矩阵G s 为____ 行的矩阵,系统校验矩阵H s 为____ 行的矩阵,G s 和H s 满足的关系式是 。

2、 一张1024×512像素的16位彩色BMP 图像能包含的最大信息量为 。

3、 香农编码中,概率为

()

i P x 的信源符号x i 对应的码字C i 的长度K i 应满足不等

式 。

3、设有一个信道,其信道矩阵为 0.250.50.250.250.250.50.50.250.25??

????

????

,则它是 信道(填对称,准对称),其信道容量是 比特/信道符号。

三、12()0.50.5X x x P X ????=????????,通过一个干扰信道,接受符号集为{}1

2Y y y =,信道转移矩阵为13443144??

??????????

试求(1)H(X),H(Y),H(XY);

(2) H(Y|X),H(X|Y); (3) I(Y;X)。

(4)该信道的容量C

(5)当平均互信息量达到信道容量时,接收端Y 的熵H (Y )。 计算结果保留小数点后2位,单位为比特/符号。 四、简述平均互信息量的物理意义,并写出对应公式。

五、假设英文字母表(n=26),密钥k=abc ,当明文m=familycome 时,使用Vigenere 密码算法后得到的密文c=请写出具体的步骤。

六、设有离散无记忆信源,其概率分布如下:

12345671111111()2

4

8

16

32

6464x

x x x x x x X P X ??????=?? ????

???

对其进行费诺编码,写出编码过程,求出信源熵、平均码长和编码效率。 七、信道编码

现有生成矩阵1

0001110

10011000100110

001101s G ?????

?=??

??

??

1. 求对应的系统校验矩阵H s 。

2求该码字集合的最小码字距离d 、最大检错能力max l 、最大纠错能力t max 。

2.

4.现有接收序列为(1100100)

r=,求纠错译码输出?c。

5.5. 画出该码的编码电路

(四)

四、简答题

1.利用公式介绍无条件熵、条件熵、联合熵和平均互信息量之间的关系。

2.简单介绍哈夫曼编码的步骤

五、计算题

1.某信源含有三个消息,概率分别为p(0)=,p(1)=,p(2)=,失真矩阵为

421

032

201

D

??

??=??

??

??

求D max、D min和R (D max)。

2.设对称离散信道矩阵为

1111

3366

1111

6633

P

??

??

=??

??

??

??

,求信道容量C。

3.有一稳态马尔可夫信源,已知转移概率为p(S1/ S1)=2/3,p(S1/ S2)=1。求:

(1)画出状态转移图和状态转移概率矩阵。

(2)求出各状态的稳态概率。

(3)求出信源的极限熵。

(五)

一、填空题

(1)1948年,美国数学家发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。

(2)必然事件的自信息是。

(3)离散平稳无记忆信源X的N次扩展信源的熵等于离散信源X的熵的。

(4)对于离散无记忆信源,当信源熵有最大值时,满足条件为__ _。

(5)对于香农编码、费诺编码和霍夫曼编码,编码方法惟一的是。

(6)已知某线性分组码的最小汉明距离为3,那么这组码最多能检测出______个码元错误,最多能纠正___个码元错误。(7)设有一离散无记忆平稳信道,其信道容量为C,只要待传送的信息传输率R__ __C(大于、小于或者等于),则存在一种编码,当输入序列长度n足够大,使译码错误概率任意小。

(8)平均错误概率不仅与信道本身的统计特性有关,还与___ __________和___ ___有关

二、判断题

(1)信息就是一种消息。()

(2)信息论研究的主要问题是在通信系统设计中如何实现信息传输、存储和处理的有效性和可靠性。()

(3) 概率大的事件自信息量大。 ( ) (4) 互信息量可正、可负亦可为零。 ( )

(5) 信源剩余度用来衡量信源的相关性程度,信源剩余度大说明信源符号间的依赖关系较小。

( )

(6) 对于固定的信源分布,平均互信息量是信道传递概率的下凸函数。 ( ) (7) 非奇异码一定是唯一可译码,唯一可译码不一定是非奇异码。 ( )

(8) 信源变长编码的核心问题是寻找紧致码(或最佳码),霍夫曼编码方法构造的是最佳码。

( )

(9)信息率失真函数R(D)是关于平均失真度D 的上凸函数. ( )

三、居住在某地区的女孩中有25%是大学生,在女大学生中有75%是身高米以上的,而女孩中身高米以上的占总数的一半。

假如我们得知“身高米以上的某女孩是大学生”的消息,问获得多少信息量

解:设A 表示“大学生”这一事件,B 表示“身高以上”这一事件,则 P(A)= p(B)= p(B|A)= 故 p(A|B)=p(AB)/p(B)=p(A)p(B|A)/p(B)=*= I(A|B)==

五、.黑白气象传真图的消息只有黑色和白色两种,求:

1) 黑色出现的概率为,白色出现的概率为。给出这个只有两个符号的信源X 的数学模型。假设图上黑白消息出现前后没有关联,求熵()X H ;

2) 假设黑白消息出现前后有关联,其依赖关系为 ,

求其熵()X H ∞。

3)分别求上述两种信源的冗余度,比较它们的大小并说明其物理意义。 六、.信源空间为

1

234567()0.20.190.180.170.150.10.01

X x x x x x x x P X ????

=???????

?

,试分别构造二元香农码和二元霍夫曼码,计算其平均码长和编码效率(要求有编码过程)。

七.设有一离散信道,其信道传递矩阵为??????????2/16/13/13/12/16/16/13/12/1,并设????

???

??

=

=

=

4

1)(21

)(41

)(3

21x p x p x p ,试分别按最大后验概率准则与最大似然译码准则确定译码规则,并计算相应的平均错误概率。1)最小似然译码准则下,有,

2)(最大后验概率准则下,有,

14

.3)(7

1

==∑=i i i l a p L 831.014.361

.2)(===

L

X H R

八.二元对称信道如图。

1)若()430

=

p

,()4

1

1=p ,求()X H 、()Y X H |和()Y X I ;; 2)求该信道的信道容量。

解:1)共6分

2), ,此时输入概率分布为等概率分布。

九、设一线性分组码具有一致监督矩阵????

?

?????=110101100110111000H

1)求此分组码n=,k=共有多少码字 2)求此分组码的生成矩阵G 。

3)写出此分组码的所有码字。

4)若接收到码字(101001),求出伴随式并给出翻译结果。

解:1)n=6,k=3,共有8个码字。(3分)

2)设码字()012345C C C C C C C =

由T T HC 0=得

???

??=⊕⊕⊕=⊕⊕=⊕⊕0

00

0135

034012C C C C C C C C C C (3分)

令监督位为

()012C C C ,则有

???

??⊕=⊕=⊕=3

404513

52C

C C C C C C C C (3分) 生成矩阵为?????

????

?101100110010011001 (2分) ()符号

/749.0|bit Y X H =

3)所有码字为000000,001101,010011,011110,100110,101011,110101,111000。(4分) 4)由T

T

HR S =得

()101=S ,(2分)该码字在第5位发生错误,(101001)纠正为(101011),即译码为(101001)(1分)

(六)

一、概念简答题

1.什么是平均自信息量与平均互信息,比较一下这两个概念的异同

2.简述最大离散熵定理。对于一个有m 个符号的离散信源,其最大熵是多少

3.解释信息传输率、信道容量、最佳输入分布的概念,说明平均互信息与信源的概率分布、信道的传递概率间分别是什么关系

4.对于一个一般的通信系统,试给出其系统模型框图,并结合此图,解释数据处理定理。

5.写出香农公式,并说明其物理意义。当信道带宽为5000Hz ,信噪比为30dB 时求信道容量。

6.解释无失真变长信源编码定理。

7.解释有噪信道编码定理。

8.什么是保真度准则对二元信源,其失真矩阵,求a>0时率失真函数的和

二、综合题

1.黑白气象传真图的消息只有黑色和白色两种,求:

1) 黑色出现的概率为,白色出现的概率为。给出这个只有两个符号的信源X 的数学模型。假设图上黑白消息出现前后没有关联,求熵

2) 假设黑白消息出现前后有关联,其依赖关系为:,,,,求其熵 ;

2.二元对称信道如图。 ;

1)若,,求和;

2)求该信道的信道容量和最佳输入分布。

3.信源空间为,试分别构造二元和三元霍夫曼码,计算其平均码长和编码效率。

4.设有一离散信道,其信道传递矩阵为,并设,试分别按最小错误概率准则与最大似然译码准则确定译码规则,并计算相应的平均错误概率。

5.5.已知一(8,5)线性分组码的生成矩阵为。

6.求:1)输入为全00011和10100时该码的码字;2)最小码距。

7.设某一信号的信息传输率为s,在带宽为4kHz的高斯信道中传输,噪声功率谱NO=5×10-6mw/Hz。试求:

8.(1)无差错传输需要的最小输入功率是多少?

9.(2)此时输入信号的最大连续熵是多少写出对应的输入概率密度函数的形式。

答案

一、概念简答题

二、1.答:平均自信息为

表示信源的平均不确定度,也表示平均每个信源消息所提供的信息量。

平均互信息

表示从Y获得的关于每个X的平均信息量,也表示发X前后Y的平均不确定性减少的量,还表示通信前后整个系统不确定性减少的量。

2.答:最大离散熵定理为:离散无记忆信源,等概率分布时熵最大。

最大熵值为。

3.答:信息传输率R指信道中平均每个符号所能传送的信息量。信道容量是一个信道所能达到的最大信息传输率。信息传输率达到信道容量时所对应的输入概率分布称为最佳输入概率分布。

平均互信息是信源概率分布的∩型凸函数,是信道传递概率的U型凸函数。

4.答:通信系统模型如下:

数据处理定理为:串联信道的输入输出X、Y、Z组成一个马尔可夫链,且有,。说明经数据处理后,一般只会增加信息的损失。

5.答:香农公式为,它是高斯加性白噪声信道在单位时间内的信道容量,其值取决于信噪比和带宽。由得,则

6.答:只要,当N足够长时,一定存在一种无失真编码。

7.答:当R<C时,只要码长足够长,一定能找到一种编码方法和译码规则,使译码错误概率无穷小。

8.答:1)保真度准则为:平均失真度不大于允许的失真度。

2)因为失真矩阵中每行都有一个0,所以有,而。

二、综合题

1.答:1)信源模型为

2)由得

2.答:1)

2),最佳输入概率分布为等概率分布。

3.答:1)二元码的码字依序为:10,11,010,011,1010,1011,1000,1001。平均码长,编码效率

2)三元码的码字依序为:1,00,02,20,21,22,010,011。

平均码长,编码效率

4.答:1)最小似然译码准则下,有,

2)最大错误概率准则下,有,

5.答:1)输入为00011时,码字为00011110;输入为10100时,码字为。

2)

6.答:1)无错传输时,有

即则

2)在时,最大熵

对应的输入概率密度函数为

(七)

一、名词解释(25道)

1、“本体论”的信息(P3)

2、“认识论”信息(P3)

3、离散信源(11)

4、自信息量(12)

5、离散平稳无记忆信源(49)

6、马尔可夫信源(58)

7、信源冗余度(66)8、连续信源(68)9、信道容量(95)

10、强对称信道(99)11、对称信道(101-102)12、多符号离散信道(109)

13、连续信道(124)14、平均失真度(136)15、实验信道(138)

16、率失真函数(139)17、信息价值率(163)18、游程序列(181)

19、游程变换(181)20、L-D编码(184)、21、冗余变换(184)

22、BSC信道(189)23、码的最小距离(193)24、线性分组码(195)

25、循环码(213)

二、填空(100道)

1、在认识论层次上研究信息的时候,必须同时考虑到形式、含义和效用三个方面的因素。

2、1948年,美国数学家香农发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。

3、按照信息的性质,可以把信息分成语法信息、语义信息和语用信息。

4、按照信息的地位,可以把信息分成客观信息和主观信息。

5、人们研究信息论的目的是为了高效、可靠、安全地交换和利用各种各样的信息。

6、信息的可度量性是建立信息论的基础。

7、统计度量是信息度量最常用的方法。

8、熵是香农信息论最基本最重要的概念。

9、事物的不确定度是用时间统计发生概率的对数来描述的。

10、单符号离散信源一般用随机变量描述,而多符号离散信源一般用随机矢量描述。

11、一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为其发生概率对数的负值。

12、自信息量的单位一般有比特、奈特和哈特。

13、必然事件的自信息是0 。

14、不可能事件的自信息量是∞。

15、两个相互独立的随机变量的联合自信息量等于两个自信息量之和。

16、数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量趋于变小。

17、离散平稳无记忆信源X的N次扩展信源的熵等于离散信源X的熵的N倍。

18、离散平稳有记忆信源的极限熵,

=

H)

/

(

lim

1

2

1-

N

N

N

X

X

X

X

H

19、对于n元m阶马尔可夫信源,其状态空间共有n m个不同的状态。

20、一维连续随即变量X在[a,b]区间内均匀分布时,其信源熵为log2(b-a)。

21、平均功率为P的高斯分布的连续信源,其信源熵,H c(X)=

eP

π2

log

2

1

2

22、对于限峰值功率的N维连续信源,当概率密度均匀分布时连续信源熵具有最大值。

23、对于限平均功率的一维连续信源,当概率密度高斯分布时,信源熵有最大值。

24、对于均值为0,平均功率受限的连续信源,信源的冗余度决定于平均功率的限定值P和信源的熵功率P之比。

25、若一离散无记忆信源的信源熵H(X)等于,对信源进行等长的无失真二进制编码,则编码长度至少为 3 。

26、m元长度为k i,i=1,2,···n的异前置码存在的充要条件是:∑

=

-≤

n

i

k i

m

1

1

27、若把掷骰子的结果作为一离散信源,则其信源熵为log26 。

28、同时掷两个正常的骰子,各面呈现的概率都为1/6,则“3和5同时出现”这件事的自信息量是log218(1+2 log23)。

29、若一维随即变量X的取值区间是[0,∞],其概率密度函数为

m

x

e

m

x

p-

=

1

)

(

,其中:

x,m是X的数学期望,则X的信源熵

=

)

(X

H

C

me

2

log

30、一副充分洗乱的扑克牌(52张),从中任意抽取1张,然后放回,若把这一过程看作离散无记忆信源,则其信源熵为

52 log

2。

31、根据输入输出信号的特点,可将信道分成离散信道、连续信道、半离散或半连续信道。

32、信道的输出仅与信道当前输入有关,而与过去输入无关的信道称为无记忆信道。

33、具有一一对应关系的无噪信道的信道容量C= log2n 。

34、强对称信道的信道容量C= log2n-H ni 。

信息论与编码复习题目

信息论复习提纲 第一章绪论 1.通信系统模型; 2.香浓信息的概念; 3.信源、信道、信源编码和信道编码研究的核心问题。 第二章离散信源及信源熵 1.离散信息量、联合信息量、条件信息量、互信息量定义; 2.信源熵、条件熵、联合熵定义; 3.平均互信息量定义、性质、三种表达式及物理意义,与其它熵的关系(不证明); 4.最大信源熵定理及证明; 5.本章所有讲过的例题; 第三章离散信源的信源编码 1.信息传输速率、编码效率定义; 2.最佳编码定理(即节定理:概率越大,码长越小;概率越小,码长越大)及证明; 3.码组为即时码的充要条件; 4.单义可译定理(Kraft不等式)及应用; 5.费诺编码方法、霍夫曼编码方法应用(二进制,三进制,四进制);6.本章所有讲过的例题; 第四章离散信道容量 1.利用信道矩阵计算信道容量(离散无噪信道、强对称离散信道、对称离

散信道、准对称离散信道); 2.本章讲过的例题; 第五章连续消息和连续信道 1.相对熵的定义; 2.均匀分布、高斯分布、指数分布的相对熵及证明; 3.峰值功率受限条件下的最大熵定理及证明,平均功率受限条件下的最大熵定理及证明,均值受限条件下的最大熵定理及证明; 4.香农公式及意义; 5.本章所有讲过的例题; 第六章差错控制 1.重量、最小重量、汉明距离、最小汉明距离、编码效率的定义;2.最小距离与检错、纠错的关系(即节定理); 3.本章所有讲过的例题; 第七章线性分组码 1.线性分组码定义; 2.线性分组码的最小距离与最小重量的关系及证明; 3.生成矩阵、一致校验矩阵定义,给出线性方程组求出生成矩阵和一致校验矩阵的标准形式,生成矩阵与一致校验矩阵的关系; 4.制作标准阵列并利用标准阵列译码; 5.本章所有讲过的例题; 第八章循环码 1.生成多项式的特点,有关定理(三定理1,定理2,定理3)及证明;

答案~信息论与编码练习

1、有一个二元对称信道,其信道矩阵如下图所示。设该信道以1500个二元符号/秒的速度传输输入符号。现有一消息序列共有14000个二元符号,并设在这消息中P(0)=P(1)=1/2。问从信息传输的角度来考虑,10秒钟内能否将这消息序列无失真地传送完? 解答:消息是一个二元序列,且为等概率分布,即P(0)=P(1)=1/2,故信源的熵为H(X)=1(bit/symbol)。则该消息序列含有的信息量=14000(bit/symbol)。 下面计算该二元对称信道能传输的最大的信息传输速率: 信道传递矩阵为: 信道容量(最大信息传输率)为: C=1-H(P)=1-H(0.98)≈0.8586bit/symbol 得最大信息传输速率为: Rt ≈1500符号/秒× 0.8586比特/符号 ≈1287.9比特/秒 ≈1.288×103比特/秒 此信道10秒钟内能无失真传输得最大信息量=10× Rt ≈ 1.288×104比特 可见,此信道10秒内能无失真传输得最大信息量小于这消息序列所含有的信息量,故从信息传输的角度来考虑,不可能在10秒钟内将这消息无失真的传送完。 2、若已知信道输入分布为等概率分布,且有如下两个信道,其转移概率矩阵分别为: 试求这两个信道的信道容量,并问这两个信道是否有噪声? 3 、已知随即变量X 和Y 的联合分布如下所示: 01100.980.020.020.98P ?? =?? ??11112222 1111222212111122221111222200000000000000000000000000000000P P ???????? ????==???? ????????11 2222111 22222log 4(00)1/()log 42/log 8(000000)2/(),H bit symbol H X bit symbol C C H bit symbol H X C =-===>=-==1解答:(1)由信道1的信道矩阵可知为对称信道故C 有熵损失,有噪声。(2)为对称信道,输入为等概率分布时达到信道容量无噪声

信息论与编码试题集与答案(2014)

一填空题 1、平均自信息为 表示信源的平均不确定度,也表示平均每个信源消息所提供的信息量。 平均互信息 表示从Y 获得的关于每个X 的平均信息量,也表示发X 前后Y 的平均不确定性减少的量,还表示通信前 后整个系统不确定性减少的量。 2、最大离散熵定理为:离散无记忆信源,等概率分布时熵最大,最大熵值为。 3、香农公式为 为保证足够大的信道容量,可采用(1)用频带换信噪比; (2)用信噪比换频带。 4、只要,当N 足够长时,一定存在一种无失真编码。 5、当R <C 时,只要码长足够长,一定能找到一种编码方法和译码规则,使译码错误概率无穷小。 6、1948年,美国数学家 香农 发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。 7.人们研究信息论的目的是为了 高效、可靠、安全 地交换和利用各种各样的信息。 8.信息的 可度量性 是建立信息论的基础。 9.统计度量 是信息度量最常用的方法。 10、单符号离散信源一般用随机变量描述,而多符号离散信源一般用 随机矢量 描述。 11、一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为 其发生概率对数的负值 。 12、自信息量的单位一般有 比特、奈特和哈特 。 13、必然事件的自信息是 0 。 14、不可能事件的自信息量是 ∞ 。 15、两个相互独立的随机变量的联合自信息量等于 两个自信息量之和 。 16、数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量 趋于变小 。 17、离散平稳无记忆信源X 的N 次扩展信源的熵等于离散信源X 的熵的 N 倍 。 18、离散平稳有记忆信源的极限熵,=∞H )/(lim 121-∞→N N N X X X X H 。 19、对于n 元m 阶马尔可夫信源,其状态空间共有 n m 个不同的状态。 20、一维连续随即变量X 在[a ,b]区间内均匀分布时,其信源熵为 log2(b-a ) 。

信息论与编码试题集与答案(新)

1. 在无失真的信源中,信源输出由 H (X ) 来度量;在有失真的信源中,信源输出由 R (D ) 来度量。 2. 要使通信系统做到传输信息有效、可靠和保密,必须首先 信源 编码, 然后_____加密____编码,再______信道_____编码,最后送入信道。 3. 带限AWGN 波形信道在平均功率受限条件下信道容量的基本公式,也就是有名的香农公式是log(1)C W SNR =+;当归一化信道容量C/W 趋近于零时,也即信道完全丧失了通信能力,此时E b /N 0为 -1.6 dB ,我们将它称作香农限,是一切编码方式所能达到的理论极限。 4. 保密系统的密钥量越小,密钥熵H (K )就越 小 ,其密文中含有的关于明文的信息量I (M ;C )就越 大 。 5. 已知n =7的循环码4 2 ()1g x x x x =+++,则信息位长度k 为 3 ,校验多项式 h(x)= 3 1x x ++ 。 6. 设输入符号表为X ={0,1},输出符号表为Y ={0,1}。输入信号的概率分布为p =(1/2,1/2),失真函数为d (0,0) = d (1,1) = 0,d (0,1) =2,d (1,0) = 1,则D min = 0 ,R (D min )= 1bit/symbol ,相应的编码器转移概率矩阵[p(y/x )]=1001?? ???? ;D max = 0.5 ,R (D max )= 0 ,相应的编码器转移概率矩阵[p(y/x )]=1010?? ? ??? 。 7. 已知用户A 的RSA 公开密钥(e,n )=(3,55),5,11p q ==,则()φn = 40 ,他的秘密密钥(d,n )=(27,55) 。若用户B 向用户A 发送m =2的加密消息,则该加密后的消息为 8 。 二、判断题 1. 可以用克劳夫特不等式作为唯一可译码存在的判据。 (√ ) 2. 线性码一定包含全零码。 (√ ) 3. 算术编码是一种无失真的分组信源编码,其基本思想是将一定精度数值作为序列的 编码,是以另外一种形式实现的最佳统计匹配编码。 (×) 4. 某一信源,不管它是否输出符号,只要这些符号具有某些概率特性,就有信息量。 (×) 5. 离散平稳有记忆信源符号序列的平均符号熵随着序列长度L 的增大而增大。 (×) 6. 限平均功率最大熵定理指出对于相关矩阵一定的随机矢量X ,当它是正态分布时具 有最大熵。 (√ ) 7. 循环码的码集中的任何一个码字的循环移位仍是码字。 (√ ) 8. 信道容量是信道中能够传输的最小信息量。 (×) 9. 香农信源编码方法在进行编码时不需要预先计算每个码字的长度。 (×) 10. 在已知收码R 的条件下找出可能性最大的发码i C 作为译码估计值,这种译码方 法叫做最佳译码。 (√ )

信息论与编码考试试题

3、(12分)已知(7,3)分组码的生成矩阵为 100111001001111010011G ?? ??=?? ???? (1)、写出所有许用码组,并求出监督矩阵。 (2)、该码的编码效率为多少? (3)、若译码器输入的码组为l010001,请计算其校正子,并指出此接收码组中是否包含错误。 4、(12分)设有信源12 345678()0.40.140.10.10.070.060.050.04X a a a a a a a a P X ????= ??????? (1) 求信源熵)(X H 和信源的冗余度; (2) 完成二进制费诺编码,并计算其平均码长及编码效率。 (3) 完成二进制霍夫曼编码,并计算其平均码长及编码效率。

5、(12分)信源分布1 23911()10 2020x x x X P X ?? ????=?????? ?? ,信道转移概率矩阵51 1682415124681158 24 6P ?? ????? ? =?????????? , 信道输出符号Y = {y 1, y 2, y 3}。 (1) 若信源等概分布,对其按最大后验概率准则译码,并求平均错误概 率。 (2) 若信源等概分布,对其按最大似然准则译码,并求平均错误概率。 6、(18分) 已知(7,3)循环码的生成矩阵为 ?? ??? ?????=100110111011101010001G (1)、试写出该(7,3)循环码的生成多项式g (x )。 (2)、若输入信息码为101,试写出对应的循环码码组。 (3)、若接收到的码组为1010100,试恢复出正确的信息位。 (4)、该码能纠正几位错。

信息论与编码习题参考答案(全)

信息论与编码习题参考答案 第一章 单符号离散信源 同时掷一对均匀的子,试求: (1)“2和6同时出现”这一事件的自信息量; (2)“两个5同时出现”这一事件的自信息量; (3)两个点数的各种组合的熵; (4)两个点数之和的熵; (5)“两个点数中至少有一个是1”的自信息量。 解: bit P a I N n P bit P a I N n P c c N 17.536log log )(36 1 )2(17.418log log )(362)1(36 662221111 616==-=∴====-=∴== =?==样本空间: * (3)信源空间: bit x H 32.436log 36 16236log 36215)(=??+?? =∴

bit x H 71.3636 log 366536log 3610 436log 368336log 366236log 36436log 362)(=??+?+?+??= ∴++ (5) bit P a I N n P 17.111 36 log log )(3611333==-=∴== ? 如有6行、8列的棋型方格,若有两个质点A 和B ,分别以等概落入任一方格内,且它们的坐标分别为(Xa ,Ya ), (Xb ,Yb ),但A ,B 不能同时落入同一方格内。 (1) 若仅有质点A ,求A 落入任一方格的平均信息量; (2) 若已知A 已落入,求B 落入的平均信息量; (3) 若A ,B 是可辨认的,求A ,B 落入的平均信息量。 解: ! bit a P a P a a P a I a P A i 58.548log )(log )()(H 48log )(log )(481 )(:)1(48 1 i i i i i ==-=∴=-=∴= ∑=落入任一格的概率 bit b P b P b b P b I b P A i 55.547log )(log )()(H 47 log )(log )(47 1 )(:B ,)2(48 1i i i i i ==-=∴=-=∴=∑=落入任一格的概率是落入任一格的情况下在已知 bit AB P AB P AB H AB P AB I AB P AB i i i i i i i 14.11)4748log()(log )()() (log )(47 1 481)()3(47481 =?=-=-=∴?=∑?=是同时落入某两格的概率 从大量统计资料知道,男性中红绿色盲的发病率为7%,女性发病率为%.如果你问一位男士:“你是否是红绿色盲”他的回答可能是:“是”,也可能“不是”。问这两个回答中各含有多少信息量平均每个回答中各含有多少信息量如果你问一位女士,则她的答案中含有多少平均信息量 解:

信息论与编码期中试卷及答案

信息论与编码期中试题答案 一、(10’)填空题 (1)1948年,美国数学家香农发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。 (2)必然事件的自信息是0 。 (3)离散平稳无记忆信源X的N次扩展信源的熵等于离散信源X的熵的N倍。 (4)对于离散无记忆信源,当信源熵有最大值时,满足条件为__信源符号等概分布_。 (5)若一离散无记忆信源的信源熵H(X)等于2.5,对信源进行等长的无失真二进制编码,则编码长度至少为 3 。 二、(10?)判断题 (1)信息就是一种消息。(? ) (2)信息论研究的主要问题是在通信系统设计中如何实现信息传输、存储和处理的有效性和可靠性。(? ) (3)概率大的事件自信息量大。(? ) (4)互信息量可正、可负亦可为零。(? ) (5)信源剩余度用来衡量信源的相关性程度,信源剩余度大说明信源符号间的依赖关系较小。 (? ) (6)对于固定的信源分布,平均互信息量是信道传递概率的下凸函数。(? ) (7)非奇异码一定是唯一可译码,唯一可译码不一定是非奇异码。(? ) (8)信源变长编码的核心问题是寻找紧致码(或最佳码)。 (? ) (9)信息率失真函数R(D)是关于平均失真度D的上凸函数. ( ? ) 三、(10?)居住在某地区的女孩中有25%是大学生,在女大学生中有75%是身高1.6米以上的,而女孩中身高1.6米以上的占总数的一半。 假如我们得知“身高1.6米以上的某女孩是大学生”的消息,问获得多少信息量? 解:设A表示“大学生”这一事件,B表示“身高1.60以上”这一事件,则 P(A)=0.25 p(B)=0.5 p(B|A)=0.75 (5分) 故p(A|B)=p(AB)/p(B)=p(A)p(B|A)/p(B)=0.75*0.25/0.5=0.375 (4分) I(A|B)=-log0.375=1.42bit (1分)

(完整版)信息论与编码概念总结

第一章 1.通信系统的基本模型: 2.信息论研究内容:信源熵,信道容量,信息率失真函数,信源编码,信道编码,密码体制的安全性测度等等 第二章 1.自信息量:一个随机事件发生某一结果所带的信息量。 2.平均互信息量:两个离散随机事件集合X 和Y ,若其任意两件的互信息量为 I (Xi;Yj ),则其联合概率加权的统计平均值,称为两集合的平均互信息量,用I (X;Y )表示 3.熵功率:与一个连续信源具有相同熵的高斯信源的平均功率定义为熵功率。如果熵功率等于信源平均功率,表示信源没有剩余;熵功率和信源的平均功率相差越大,说明信源的剩余越大。所以信源平均功率和熵功率之差称为连续信源的剩余度。信源熵的相对率(信源效率):实际熵与最大熵的比值 信源冗余度: 0H H ∞=ηη ζ-=1

意义:针对最大熵而言,无用信息在其中所占的比例。 3.极限熵: 平均符号熵的N 取极限值,即原始信源不断发符号,符号间的统计关系延伸到无穷。 4. 5.离散信源和连续信源的最大熵定理。 离散无记忆信源,等概率分布时熵最大。 连续信源,峰值功率受限时,均匀分布的熵最大。 平均功率受限时,高斯分布的熵最大。 均值受限时,指数分布的熵最大 6.限平均功率的连续信源的最大熵功率: 称为平均符号熵。 定义:即无记忆有记忆N X H H X H N X H X NH X H X H X H N N N N N N )() ()()()()()(=≤∴≤≤

若一个连续信源输出信号的平均功率被限定为p ,则其输出信号幅度的概率密度分布是高斯分布时,信源有最大的熵,其值为 1log 22 ep π.对于N 维连续平稳信源来说,若其输出的N 维随机序列的协方差矩阵C 被限定,则N 维随机矢量为正态分布时信源 的熵最大,也就是N 维高斯信源的熵最大,其值为1log ||log 222N C e π+ 7.离散信源的无失真定长编码定理: 离散信源无失真编码的基本原理 原理图 说明: (1) 信源发出的消息:是多符号离散信源消息,长度为L,可以用L 次扩展信 源表示为: X L =(X 1X 2……X L ) 其中,每一位X i 都取自同一个原始信源符号集合(n 种符号): X={x 1,x 2,…x n } 则最多可以对应n L 条消息。 (2)信源编码后,编成的码序列长度为k,可以用k 次扩展信宿符号表示为: Y k =(Y 1Y 2……Y k ) 称为码字/码组 其中,每一位Y i 都取自同一个原始信宿符号集合: Y={y 1,y 2,…y m } 又叫信道基本符号集合(称为码元,且是m 进制的) 则最多可编成m k 个码序列,对应m k 条消息 定长编码:信源消息编成的码字长度k 是固定的。对应的编码定理称为定长信源编码定理。 变长编码:信源消息编成的码字长度k 是可变的。 8.离散信源的最佳变长编码定理 最佳变长编码定理:若信源有n 条消息,第i 条消息出现的概率为p i ,且 p 1>=p 2>=…>=p n ,且第i 条消息对应的码长为k i ,并有k 1<=k 2<=…<=k n

信息论与编码试题-精选.

模拟试题一 一、概念简答题(共10题,每题5分) 1.简述离散信源和连续信源的最大熵定理。 2.什么是平均自信息(信息熵)?什么是平均互信息?比较一下两个概念的异同之处。 3.解释等长信源编码定理和无失真变长信源编码定理,说明对于等长码和变长码,最佳码的每符号平均码长最小为多少?编码效率最高可达多少? 4.解释最小错误概率译码准则,最大似然译码准则和最小距离译码准则,说明三者的关系。 5.设某二元码字C={111000,001011,010110,101110}, ①假设码字等概率分布,计算此码的编码效率? ②采用最小距离译码准则,当接收序列为110110时,应译成什么码字? 6.一平稳二元信源,它在任意时间,不论以前发出过什么符号,都按 发出符号,求

和平均符号熵 7.分别说明信源的概率分布和信道转移概率对平均互信息的影响,说明平均互信息与信道容量的关系。

8.二元无记忆信源,有求:(1)某一信源序列由100个二元符号组成,其中有m个“1”,求其自信息量?(2)求100个符号构成的信源序列的熵。 9.求以下三个信道的信道容量:

,,

10.已知一(3,1,3)卷积码编码器,输入输出关系为:

试给出其编码原理框图。 二、综合题(共5题,每题10分) 1.二元平稳马氏链,已知P(0/0)=0.9,P(1/1)=0.8,求: (1)求该马氏信源的符号熵。 (2)每三个符号合成一个来编二进制Huffman码,试建立新信源的模型,给出编码结果。 (3)求每符号对应的平均码长和编码效率。 2.设有一离散信道,其信道矩阵为,求:(1)最佳概率分布?

信息论与编码期末试卷

上海大学2011~2012学年度冬季学期试卷(A卷) 课程名:信息论与编码课程号: 07276033学分: 4 应试人声明: 我保证遵守《上海大学学生手册》中的《上海大学考场规则》,如有考试违纪、作弊行为,愿意接受《上海大学学生考试违纪、作弊行为界定及处分规定》的纪律处分。 应试人应试人学号应试人所在院系 题号 1 2 3 4 得分——————————————————————————————————————一:填空题(每空2分,共40分) 1:掷一个正常的骰子,出现‘5’这一事件的自信息量为________,同时掷两个正常的骰子,‘点数之和为5’这一事件的自信息量为___________.(注明物理单位) 2:某信源包含16个不同的离散消息,则信源熵的最大值为___________,最小值为_____________. 3:信源X经过宥噪信道后,在接收端获得的平均信息量称为______________. 4:一个离散无记忆信源输出符号的概率分别为p(0)=0.5,p(1)=0.25,p(2)=0.25,则由60个符号构成的消息的平均自信息量为__________. 5:信源编码可提高信息传输的___有效___性,信道编码可提高信息传输的___可靠_性. 6:若某信道的信道矩阵为 ? ? ? ? ? ? ? ? ? ? ? ? 001 100 010 100 ,则该信道为具有____归并____性能的信道 7:根据香农第一定理(定长编码定理)若一个离散无记忆信源X的信源熵为H(X),对其n个符号进行二元无失真编码时,其码字的平均长度必须大于____________ 8:若某二元序列是一阶马尔科夫链,P(0/0)=0.8,P(1/1)=0.7,则‘0’游程长度为4的概率为____________,若游程序列为312314,则原始的二元序列为_________. 9:若循环码的生成多项式为1 ) (2 3+ + =x x x g,则接收向量为(1111011)的伴随多项式为_______________ 10:对有32个符号的信源编4进制HUFFMAN码,第一次取_______个信源进行编码. 11:若一个线性分组码的所有码字为:00000,10101,01111,11010,则该码为(____,_____),该码最多可以纠正_______位错误,共有________陪集. 12:码长为10的线性分组码若可以纠正2个差错,其监督吗至少有__5____位. 13:(7,4)汉明码的一致校验矩阵为 ? ? ? ? ? ? ? ? ? ? 1,0,1,0,1, ,1 0,1,1,0,0, ,1 0,0,0,1,1, ,1 3 2 1 r r r ,则3 2 1 r r r 为__________. _______________________________________________________________ 草稿纸 成绩

信息论与编码第一章答案

第一章信息论与基础 1.1信息与消息的概念有何区别? 信息存在于任何事物之中,有物质的地方就有信息,信息本身是看不见、摸不着的,它必须依附于一定的物质形式。一切物质都有可能成为信息的载体,信息充满着整个物质世界。信息是物质和能量在空间和时间中分布的不均匀程度。信息是表征事物的状态和运动形式。 在通信系统中其传输的形式是消息。但消息传递过程的一个最基本、最普遍却又十分引人注意的特点是:收信者在收到消息以前是不知道具体内容的;在收到消息之前,收信者无法判断发送者将发来描述何种事物运动状态的具体消息;再者,即使收到消息,由于信道干扰的存在,也不能断定得到的消息是否正确和可靠。 在通信系统中形式上传输的是消息,但实质上传输的是信息。消息只是表达信息的工具,载荷信息的载体。显然在通信中被利用的(亦即携带信息的)实际客体是不重要的,而重要的是信息。 信息载荷在消息之中,同一信息可以由不同形式的消息来载荷;同一个消息可能包含非常丰富的信息,也可能只包含很少的信息。可见,信息与消息既有区别又有联系的。 1.2 简述信息传输系统五个组成部分的作用。 信源:产生消息和消息序列的源。消息是随机发生的,也就是说在未收到这些消息之前不可能确切地知道它们的内容。信源研究主要内容是消息的统计特性和信源产生信息的速率。 信宿:信息传送过程中的接受者,亦即接受消息的人和物。 编码器:将信源发出的消息变换成适于信道传送的信号的设备。它包含下述三个部分:(1)信源编码器:在一定的准则下,信源编码器对信源输出的消息进行适当的变换和处理,其目的在于提高信息传输的效率。(2)纠错编码器:纠错编码器是对信源编码器的输出进行变换,用以提高对于信道干扰的抗击能力,也就是说提高信息传输的可靠性。(3)调制器:调制器是将纠错编码器的输出变换适合于信道传输要求的信号形式。纠错编码器和调制器的组合又称为信道编码器。 信道:把载荷消息的信号从发射端传到接受端的媒质或通道,包括收发设备在内的物理设施。信道除了传送信号外,还存储信号的作用。 译码器:编码的逆变换。它要从受干扰的信号中最大限度地提取出有关信源输出消息的信息,并尽可能地复现信源的输出。 1.3 同时掷一对骰子,要得知面朝上点数之和,描述这一信源的数学 模型。 解:设该信源符号集合为X

信息论与编码第五章答案

设信源1 234567()0.20.190.180.170.150.10.01X a a a a a a a p X ????=???? ???? (1) 求信源熵H(X); (2) 编二进制香农码; (3) 计算平均码长和编码效率. 解: (1) 7 21222222()()log () 0.2log 0.20.19log 0.19 0.18log 0.180.17log 0.170.15log 0.150.1log 0.10.01log 0.012.609/i i i H X p a p a bit symbol ==-=-?-?-?-?-?-?-?=∑ (2) (3) 7 1 ()0.230.1930.1830.1730.153 0.140.0173.141 ()()/ 2.609 3.14183.1% i i i K k p x H X H X K R η===?+?+?+?+?+?+?====÷=∑ 对习题的信源编二进制费诺码,计算编码效率. 解:

a i p(a i )编码码字k i a1 0002 a2 1 00103 a310113 a4 1 0102 a5 1 01103 a6 1 011104 a7111114 对信源编二进制和三进制哈夫 曼码,计算各自的平均码长和编码效率. 解: 二进制哈夫曼码: x i p(x i)编码码字k i s61 s50 s41 s30 s21 x10102 x21112 x300003

x410013 x500103 s11 x6001104 x7101114 三进制哈夫曼码: x i p(x i)编码码字k i s31 s20 s11 x1221 x20002 x31012 x42022 x50102 x61112 x72122

信息论与编码试题集与答案(新)

" 1. 在无失真的信源中,信源输出由 H (X ) 来度量;在有失真的信源中,信源输出由 R (D ) 来度量。 2. 要使通信系统做到传输信息有效、可靠和保密,必须首先 信源 编码, 然后_____加密____编码,再______信道_____编码,最后送入信道。 3. 带限AWGN 波形信道在平均功率受限条件下信道容量的基本公式,也就是有名的香农公式是log(1)C W SNR =+;当归一化信道容量C/W 趋近于零时,也即信道完全丧失了通信能力,此时E b /N 0为 dB ,我们将它称作香农限,是一切编码方式所能达到的理论极限。 4. 保密系统的密钥量越小,密钥熵H (K )就越 小 ,其密文中含有的关于明文的信息量I (M ;C )就越 大 。 5. 已知n =7的循环码4 2 ()1g x x x x =+++,则信息位长度k 为 3 ,校验多项式 h(x)= 3 1x x ++ 。 6. ? 7. 设输入符号表为X ={0,1},输出符号表为Y ={0,1}。输入信号的概率分布为p =(1/2,1/2),失真函数为d (0,0) = d (1,1) = 0,d (0,1) =2,d (1,0) = 1,则D min = 0 ,R (D min )= 1bit/symbol ,相应的编码器转移概率矩阵[p(y/x )]=1001?? ???? ;D max = ,R (D max )= 0 ,相应的编码器转移概率矩阵[p(y/x )]=1010?? ? ??? 。 8. 已知用户A 的RSA 公开密钥(e,n )=(3,55),5,11p q ==,则()φn = 40 ,他的秘密密钥(d,n )=(27,55) 。若用户B 向用户A 发送m =2的加密消息,则该加密后的消息为 8 。 二、判断题 1. 可以用克劳夫特不等式作为唯一可译码存在的判据。 ( ) 2. 线性码一定包含全零码。 ( ) 3. 算术编码是一种无失真的分组信源编码,其基本思想是将一定精度数值作为序列的 编码,是以另外一种形式实现的最佳统计匹配编码。 (×) 4. " 5. 某一信源,不管它是否输出符号,只要这些符号具有某些概率特性,就有信息量。 (×) 6. 离散平稳有记忆信源符号序列的平均符号熵随着序列长度L 的增大而增大。 (×) 7. 限平均功率最大熵定理指出对于相关矩阵一定的随机矢量X ,当它是正态分布时具 有最大熵。 ( ) 8. 循环码的码集中的任何一个码字的循环移位仍是码字。 ( ) 9. 信道容量是信道中能够传输的最小信息量。 (×) 10. 香农信源编码方法在进行编码时不需要预先计算每个码字的长度。 (×) 11. ! 12. 在已知收码R 的条件下找出可能性最大的发码i C 作为译码估计值,这种译码方

信息论与编码试题集与答案(新)

一填空题(本题20分,每小题2分) 1、平均自信息为 表示信源的平均不确定度,也表示平均每个信源消息所提供的信息量。 平均互信息 表示从Y获得的关于每个X的平均信息量,也表示发X前后Y的平均不确定性减少的量,还表示通信前后整个系统不确定性减少的量。 2、最大离散熵定理为:离散无记忆信源,等概率分布时熵最大。 3、最大熵值为。 4、通信系统模型如下: 5、香农公式为为保证足够大的信道容量,可采用(1)用频带换信噪比;(2)用信噪比换频带。

6、只要,当N足够长时,一定存在一种无失真编码。 7、当R<C时,只要码长足够长,一定能找到一种编码方法和译码规则,使译码错误概率无穷小。 8、在认识论层次上研究信息的时候,必须同时考虑到形式、含义和效用三个方面的因素。 9、1948年,美国数学家香农发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。 按照信息的性质,可以把信息分成语法信息、语义信息和语用信息。 按照信息的地位,可以把信息分成客观信息和主观信息。 人们研究信息论的目的是为了高效、可靠、安全地交换和利用各种各样的信息。 信息的可度量性是建立信息论的基础。 统计度量是信息度量最常用的方法。 熵是香农信息论最基本最重要的概念。 事物的不确定度是用时间统计发生概率的对数来描述的。 10、单符号离散信源一般用随机变量描述,而多符号离散信源一般用随机矢量描述。 11、一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为其发生概率对

数的负值 。 12、自信息量的单位一般有 比特、奈特和哈特 。 13、必然事件的自信息是 0 。 14、不可能事件的自信息量是 ∞ 。 15、两个相互独立的随机变量的联合自信息量等于 两个自信息量之和 。 16、数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量 趋于变小 。 17、离散平稳无记忆信源X 的N 次扩展信源的熵等于离散信源X 的熵的 N 倍 。 18、离散平稳有记忆信源的极限熵,=∞H )/(lim 121-∞→N N N X X X X H 。 19、对于n 元m 阶马尔可夫信源,其状态空间共有 nm 个不同的状态。 20、一维连续随即变量X 在[a ,b]区间内均匀分布时,其信源熵为 log2(b-a ) 。 21、平均功率为P 的高斯分布的连续信源,其信源熵,Hc (X )=eP π2log 21 2。 22、对于限峰值功率的N 维连续信源,当概率密度 均匀分布 时连续信源熵具有最大值。 23、对于限平均功率的一维连续信源,当概率密度 高斯分布 时,信源熵有最大值。 24、对于均值为0,平均功率受限的连续信源,信源的冗余度决定于平均功率的限定值P 和信源的熵功率P 之比 。

信息论与编码期末考试题----学生复习用

《信息论基础》参考答案 一、填空题 1、信源编码的主要目的是提高有效性,信道编码的主要目的是提高可靠性。 2、信源的剩余度主要来自两个方面,一是信源符号间的相关性,二是信源符号的统计不均匀性。 3、三进制信源的最小熵为0,最大熵为32log bit/符号。 4、无失真信源编码的平均码长最小理论极限制为信源熵(或H(S)/logr= H r (S))。 5、当R=C 或(信道剩余度为0)时,信源与信道达到匹配。 6、根据信道特性是否随时间变化,信道可以分为恒参信道和随参信道。 7、根据是否允许失真,信源编码可分为无失真信源编码和限失真信源编码。 8、若连续信源输出信号的平均功率为2σ,则输出信号幅度的概率密度是高斯分布或正态分布或()22 212x f x e σπσ -= 时,信源 具有最大熵,其值为值21 log 22 e πσ。 9、在下面空格中选择填入数学符号“,,,=≥≤?”或“?” (1)当X 和Y 相互独立时,H (XY )=H(X)+H(X/Y)=H(Y)+H(X)。 (2)()() 1222H X X H X =≥()()12333 H X X X H X = (3)假设信道输入用X 表示,信道输出用Y 表示。在无噪有损信道中,H(X/Y)> 0, H(Y/X)=0,I(X;Y)

信息论与编码习题参考答案(全)

信息论与编码习题参考答案 第一章 单符号离散信源 同时掷一对均匀的子,试求: (1)“2和6同时出现”这一事件的自信息量; (2)“两个5同时出现”这一事件的自信息量; (3)两个点数的各种组合的熵; (4)两个点数之和的熵; (5)“两个点数中至少有一个是1”的自信息量。 解: bit P a I N n P bit P a I N n P c c N 17.536log log )(361 )2(17.418log log )(362)1(36 662221111 616==-=∴====-=∴== =?==样本空间: (3)信源空间:

bit x H 32.436log 36 16236log 36215)(=??+?? =∴ (4)信源空间: bit x H 71.3636 log 366536log 3610 436log 368336log 366236log 36436log 362)(=??+?+?+??= ∴++ (5) bit P a I N n P 17.111 36 log log )(3611333==-=∴== 如有6行、8列的棋型方格,若有两个质点A 和B ,分别以等概落入任一方格内,且它们的坐标分别为(Xa ,Ya ), (Xb ,Yb ),但A ,B 不能同时落入同一方格内。 (1) 若仅有质点A ,求A 落入任一方格的平均信息量; (2) 若已知A 已落入,求B 落入的平均信息量; (3) 若A ,B 是可辨认的,求A ,B 落入的平均信息量。 解: bit a P a P a a P a I a P A i 58.548log )(log )()(H 48log )(log )(481 )(:)1(48 1 i i i i i ==-=∴=-=∴= ∑=落入任一格的概率Θ bit b P b P b b P b I b P A i 55.547log )(log )()(H 47 log )(log )(47 1 )(:B ,)2(48 1i i i i i ==-=∴=-=∴=∑=落入任一格的概率是落入任一格的情况下在已知Θ

信息论与编码期末考试题(全套)

(一) 一、判断题共10 小题,满分20 分、 1、当随机变量与相互独立时,条件熵等于信源熵、( ) 2、由于构成同一空间得基底不就是唯一得,所以不同得基底或生成矩阵有可能生成同一码集、( ) 3、一般情况下,用变长编码得到得平均码长比定长编码 大得多、( ) 4、只要信息传输率大于信道容量,总存在一种信道编译 码,可以以所要求得任意小得误差概率实现可靠得通 信、 ( ) 5、各码字得长度符合克拉夫特不等式,就是唯一可译码存在得充分与必要条件、() 6、连续信源与离散信源得熵都具有非负性、( ) 7、信源得消息通过信道传输后得误差或失真越大,信宿收到消息后对信源存在得不确 定性就越小,获得得信息量就越小、 8、汉明码就是一种线性分组码、( ) 9、率失真函数得最小值就是、( ) 10、必然事件与不可能事件得自信息量都就是、( ) 二、填空题共 6 小题,满分20 分、 1、码得检、纠错能力取决 于、 2、信源编码得目得就是 ;信道编码 得目得就是、 3、把信息组原封不动地搬到码字前位得码就叫 做、 4、香农信息论中得三大极限定理就 是、、、 5、设信道得输入与输出随机序列分别为与,则成立得 条件、 6、对于香农-费诺编码、原始香农-费诺编码与哈夫曼编码,编码方法惟一得就是、 7、某二元信源,其失真矩阵,则该信源得=、 三、本题共 4 小题,满分50 分、 1、某信源发送端有2种符号,;接收端有3种符号,转移概率矩阵为、 (1)计算接收端得平均不确定度; (2)计算由于噪声产生得不确定度; (3)计算信道容量以及最佳入口分布、 2、一阶马尔可夫信源得状态转移图如右图所示, 信源得符号集为、 (1)求信源平稳后得概率分布; (2)求此信源得熵; (3)近似地认为此信源为无记忆时,符号得概率分布为平 稳分布、求近似信源得熵并与进行比较、 4、设二元线性分组码得生成矩阵为、 (1)给出该码得一致校验矩阵,写出所有得陪集首与与之相 对应得伴随式; (2)若接收矢量,试计算出其对应得伴随式并按照最小距离 译码准则 试着对其译码、 (二) 一、填空题(共15分,每空1分) 1、信源编码得主要目得就是 ,信道编码得主要目得就是。 2、信源得剩余度主要来自两个方面,一就是 ,二就是。 3、三进制信源得最小熵为 ,最大熵为。 4、无失真信源编码得平均码长最小理论极限制为。 5、当时,信源与信道达到匹配。 6、根据信道特性就是否随时间变化,信道可以分为与。 7、根据就是否允许失真,信源编码可分为与。 8、若连续信源输出信号得平均功率为,则输出信号幅度得概 率密度就是时,信源具有最大熵,其值为值。 9、在下面空格中选择填入数学符号“”或“” (1)当X与Y相互独立时,H(XY) H(X)+H(X/Y) H(Y)+H(X)。 (2) (3)假设信道输入用X表示,信道输出用Y表示。在无噪有损 信道中,H(X/Y) 0, H(Y/X) 0,I(X;Y) H(X)。 三、(16分)已知信源 (1)用霍夫曼编码法编成二进制变长码;(6 分) (2)计算平均码长;(4分) (3)计算编码信息率;(2分)

(完整版)信息论与编码习题参考答案

1.6为了使电视图象获得良好的清晰度和规定的对比度,需要用5×105个像素和10个不同的亮度电平,并设每秒要传送30帧图象,所有的像素是独立的,且所有亮度电平等概出现。求传输此图象所需要的信息率(bit/s )。 解: bit/s 104.98310661.130)/)(()/(R bit/frame 10661.1322.3105)(H 105)(H bit/pels 322.310log )(log )()(H 76650510 10?=??=?=∴?=??=??====∑=frame bit X H s frame r x X a p a p x i i i 所需信息速率为:每帧图像的熵是:每个像素的熵是:,由熵的极值性: 由于亮度电平等概出现 1.7设某彩电系统,除了满足对于黑白电视系统的上述要求外,还必须有30个不同的色彩度。试证明传输这种彩电系统的信息率要比黑白系统的信息率大 2.5倍左右。 证: . 5.2,,5.25.2477.210 log 300log )(H )(H pels /bit 300log )(log )()(H bit 3001030,10,,3001300 11倍左右比黑白电视系统高彩色电视系统信息率要图形所以传输相同的倍作用大信息量比黑白电视系统彩色电视系统每个像素每个像素的熵是:量化 所以每个像素需要用个亮度每个色彩度需要求下在满足黑白电视系统要个不同色彩度增加∴≈====∴=?∑=x x b p b p x i i i Θ 1.8每帧电视图像可以认为是由3×105个像素组成,所以像素均是独立变化,且每像素又取128个不同的亮度电平,并设亮度电平是等概出现。问每帧图像含有多少信息量?若现在有一个广播员,在约10000个汉字中选1000个字来口述这一电视图像,试问若要恰当地描述此图像,广播员在口述中至少需要多少汉字? 解: 个汉字 最少需要数描述一帧图像需要汉字每个汉字所包含信息量每个汉字所出现概率每帧图象所含信息量556 6 5 5 10322.6/10322.61 .0log 101.2)()()()(,log H(c):1.010000 1000 symble /bit 101.2128log 103)(103)(: ?∴?=-?=≥ ≤-=∴== ?=??=??=frame c H X H n c nH X H n p p x H X H 1.9 给 定 一 个 概 率 分 布 ) ,...,,(21n p p p 和一个整数m , n m ≤≤0。定义 ∑=-=m i i m p q 1 1,证明: )log(),,...,,(),...,,(2121m n q q p p p H p p p H m m m n -+≤。并说明等式何时成立? 证: ∑∑+==- -=>-=<-=''-=''∴>- =''-=''>-=n m i i i m i i i n p p p p p p p H x x x x f x e x x x f x x e x x x f x x x x f 1 121log log ),...,,( )0(log )( 0log )log ()(0 log )log ()()0(log )(ΘΘ又为凸函数。即又为凸函数,如下:先证明 时等式成立。 当且仅当时等式成立。当且仅当即可得: 的算术平均值的函数,函数的平均值小于变量由凸函数的性质,变量n m m m m m n m m m i i i m m m m m m i i i n m i i i m i i i n n m m m m m n m i i i m m n m i i n m i i n m i i n m i i n m i i i p p p m n q q p p p H p p p H q q p p q p p p H m n q q q p p p p p p p p p H p p p m n q q q p p m n q q m n p m n p m n m n p f m n m n p f m n p p ===-+≤--=-+--≤- -=∴===-+-≤- --=----=---≤---=- ++==+==+++=+=+=+=+=+=∑∑∑∑∑∑∑∑∑ ∑...)log(),,...,,(),...,,(log log ),,...,,() log(log log log log ),...,,(...) log(log log log log )()()() ()(log 2121211 211 1 1 21211 1111 1 ΘΘ 2.13把n 个二进制对称信道串接起来,每个二进制对称信道的错误传输概率为p(0

相关文档
最新文档