信息论与编码复习题,德州学院

信息论与编码复习题,德州学院
信息论与编码复习题,德州学院

一、填空

1. 信息论基础主要研究信息的测度、 信道容量 、 信源和信道编码理论 等问题。

2. 必然事件的自信息量是0,不可能事件的自信息量是无穷大。

3. 若把掷骰子的结果作为一离散信源,则信源熵为

2log 。

4. 当事件i x 和j y 彼此之间相互独立时,平均互信息量为 0 。

5. 若二维平稳信源的信源熵为3bit/sign ,则其平均符号熵为1.5bit/sign 。

6. 信源熵H(X)表示信源输出后每个消息所提供的 平均信息量 。

7. 布袋中有红白球各50只,若从中随意取出一只球,则判断其颜色所需的信息量为 1bit 。 8. 单符号离散信源是用随机变量来描述的,则多符号离散信源用随机矢量来描述。 9. 平均互信息量与信息熵、联合熵的关系是I(X;Y)=H(X)+H(Y)-H(XY) 。 10. 条件熵H (x|y )和无条件熵H (X )的关系是小于等于。 11. 对于理想信道,H (x|y )等于0 ;I (x ;y )= H (X )。

12. 若YZ 统计独立,则H (YZ )和H (Y )、H (Z )之间的关系是H (YZ )=H (Y )+H (Z ) 。 13. 对某含有7个消息的信源,其熵的最大值为2log 7,对应为等概分布分布。 14. 对某含有8个消息的信源,其熵的最大值为2log 8,对应为等概分布。 15. 对某含有6个消息的信源,其熵的最大值为2log 6,对应为等概分布。 16. 对某含有9个消息的信源,其熵的最大值为2log 9,对应为等概分布。 17. 十六进制脉冲所含的信息量是四进制脉冲的2 倍。 18. 八进制脉冲所含的信息量是二进制脉冲的3倍。 19. 十六进制脉冲所含的信息量是二进制脉冲的 4倍。

20. 离散平稳无记忆信源的N 次扩展信源的熵等于离散信源熵的N 倍。 21. 离散信源的熵越小,则该信源消息之间的平均不确定性越弱。 22. 对于r 进制树图,n 级节点的个数一般为n

r 。

23. 信道中任一时刻输出符号仅统计依赖于对应时刻的输入符号,而与非对应时刻的输入符号及其它任何

时刻的输出符号无关,这种信道称之为 有干扰无记忆信道 。

24. 对于某一信源和某一符号集来说,若有一个唯一可译码,其平均码长小于所有其它唯一可译码的平均

码长,则称该码为紧致码或最佳码 。

25. 分组码是前向纠错码 ,它可以在无需重新发射的情况下检测出有限个错码,并加以纠正。 26. 信源编码的目的是提高通信的有效性。

27. 对于香农编码和哈夫曼编码,编码方法唯一的是香农编码 。

28. 若纠错码的最小距离为dmin,则可以纠错任意小于等于(dmin-1)/2个差错。 29. 线性分组码是同时具有线性特性和分组特性的纠错码。

30. 道的输出仅与当前输入有关,而与过去无关的信道称无记忆信道。 31. 唯一可译码存在的充要条件是

1

1i n

k i m -=≤∑

32. 编码分为信源编码和信道编码两种。

33. 信道无失真传输信息的条件是信息传输速率小于信道容量。 34. 对称信道中,信源的最佳分布为等概分布。

35. 信源编码和信道编码的最大区别在于信源编码需减少信源的冗余度,而信道编码需增加信源的冗余。 36. 信道编码的目的是提高通信的可靠性。

37. 离散信源分为离散无记忆信源 和 离散有记忆信源。

38. ()R D 是D 的下凸函数。

39. 码字10100001与码字01100000之间的距离是 3 。 40. 码字011111101、100111001之间的最汉明距离为5。 41. 码字101110101、100111001之间的最汉明距离为3。

42. 码字101111101、011111101、100111001之间的最小汉明距离为 2 。 43. 码字101010101、100111001之间的最汉明距离为4。 44. 码字101010101、100101001之间的最汉明距离为5。 45. 码字10100001与码字01100000之间的距离是 3 。 46. 将循环码0010111循环左移位1之后的码字10101110。 47. 将循环码0010111循环左移位2之后的码字1011100。 48. 将循环码0010111循环左移4位之后的码字1110010。 49.

50. 二、解释下列名词

51. 自信息量:一个随机事件发生某一结果后所带来的信息量称为自信息量,简称自信息。

2()log ()i i I a p a =-

52. 互信息量:xi 的后验概率与先验概率比值的对数,为yj 对xi 的互信息量,也称为交互信息量(简称

互信息),用I(xi ;yj)表示,

53. 即:log (/)

(;)()

i j i

j

i p x y I x y p x =

54. (i=1,2,……n ;j=1,2,……m )

55. 信道冗余度:设信道的信息传输速率为R=I(X,Y),信道容量为C ,信道的剩余度定义为:信道冗余度

=C-I(X,Y)

56. 离散信源:发出在时间和幅度上都是离散分布的离散消息的信源。 如:文字、数字、数据、字母等。 57. 离散无记忆序列信源:若信源输出的消息是取值离散的平稳随机序列,并且序列中各随机变量之间彼

此统计独立,则此信源称为离散无记忆序列信源.

58. 无记忆离散信源:发出的各个符号是相互独立的;各符号序列中的各个符号之间是没有统计关联的关

系。 各个符号的出现概率是它自身的先验概率。无记忆离散信源包含发出单符号的无记忆离散信源和发出符号序列的无记忆离散信源。

59. 有记忆离散信源:发出的各个符号是相关联的。表述起来很困难。有记忆离散信源又可分为发出符号

序列的有记忆离散信源和发出符号序列的马尔可夫信源。

60. 冗余度: 它表示给定信源在实际发出消息时所包含的多余信息.(也称为多余度或剩余度).

m H H /1∞-=γ其中:H ∞(X)--为信源实际熵; Hm(X)--信源最大熵。

61. 线性分组码:同时具有分组特性和线性特性的纠错码。将输入的信息组编成长为n 的码字,码字前k 位

为信息元,后r=n-k 个码元为校验元。若各校验元与前k 个信息元之间是线性关系,则称这样的码为线性分组码。

62. 唯一可译码:若码的任意一串有限长的码符号序列,只能被唯一的译成所对应的信源符号序列,则称为

唯一可译码。

63. 编码效率: 表示编码后实际信息量和能载荷最大信息量的比值。 假设码元为m 进制,即可取m 种可能值,则每个码元所能载荷的最大信息量为logm 比特/码元。

m

K x H R R log )

(max ==η

64. 准对称信道:如果信道转移矩阵按列可以划分为几个互不相交的子集,每个子矩阵满足下列性质: (1)

每行都是第一行的某种置换; (2)每列都是第一列的某种置换。 称该信道为准对称信道。

65. 信息率失真函数:选定信源和失真函数后,)],([b a d E D =-

可以看成条件概率p(b|a)的函数。设

BD={P(b|a):D D ≤-

}满足保真度准则的所有信道集合,这种信道称为失真度D 允许信道(或试验信道)。 66. 即时译码:非延长码或非续长码,任意一个码子都不是其它码字的前缀部分.

67. 信道容量:互信息量I(X,Y)是输入符号X 概率分布的凸函数对于一个给定的信道,总是存在某种概

率分布p(xi),使得传输每个符号平均获得的信息量最大,即对于每个固定的信道总是存在一个最大的信息传输速率,这个最大信息传输速率定义为信道容量。

68. 对称信道:若转移概率矩阵P 每一行都是第一行的置转, 称矩阵是输入对称.若每一列都是第一列的置

转,称矩阵是输出对称.若输入输出都对称,称对称DMC 信道。

69. 汉明距离:长度为n 的两个符号序列(码字)αi 和βj 之间的汉明距离为αi 和βj 对应位置上不同码元

的个数, 汉明距离记为d(αi,βj)

70. 循环码:设c 是线性分组码的任一码字,如果c 经循环移位c=(c1,c 2,…,cn-1,cn)→c ⑴

=(c2,c3,…,cn-1cn,c1)后的序列仍然是码字, 那么称该线性分组码为循环码。

71. 无损压缩:长是利用数据的统计冗余进行压缩,可完全回复原始数据而不引起任何失真。 但压缩率

是受到数据统计冗余度的理论限制,一般为2:1到5:1。

72. 有损压缩:经过压缩、解压的数据与原始数据不同,但是非常接近的压缩方法,又称破坏型压缩,即将

次要的信息数据压缩掉,牺牲一些质量来减少数据量,使压缩比提高。

73. 输出对称信道:如果信道转移概率矩阵中所有列矢量都是第一列的某种置换,则称信道是关于输出对

称离散信道。

74. 有噪无损信道:信道输出符号Y 集合的数量大于信道符号X 集合的数量,即r <s,形成一对多的映射关.

由于一对多的映射关系,不能由输入完全确定信道的输出,H(X ︱Y) >0,H(X)<H(Y),I(X;Y)=H(X). 75.

{}{}()

()

max (;)max ()log p x p x C I X Y H x r

===

76. 码树:码树有一个树根A,树根有m 个树枝,树枝的尽头称为节点,每个节点生出是树枝的数量等于码

符号的数量m ,从而形成m 进制的码树。

77. 非即时译码:接收端收到一个完整的码字后,不能立即译码,而等下一码字开始接收后才判断是否可以

码.

78. 平均码长:编码后的每个信源符号平均所需的码元(码符号)个数。 79.

1

()q

i i

i K P x K ==∑

80. 3.简答

81. 简述信息、消息、信号及其区别。

82. 答:信息是事物运动状态或存在方式的不确定性的描述。信息的基本概念在于它的不确定性,任何确

定的事物都不会有信息。用文字、符号、数据、语言、音符、图片、图像等能够被人们感觉器官所感知的形式,把客观物质运动和主观思维活动的状态表达出来就成为消息。消息包含信息,是信息的载体,但不是物理性的。把消息换成适合信道传输的物理量(如电信号、光信号、声信号、生物信号等),这种物理量称为信号。信号是信息的载体,是物理性的。 83. 信息量、联合自信息量和条件自信息量三者之间的关系。

84. 信息是事物运动状态或存在方式的不确定性的描述。信息的基本概念在于它的不确定性,任何确定的

事物都不会有信息。用文字、符号、数据、语言、音符、图片、图像等能够被人们感觉器官所感知的形式,把客观物质运动和主观思维活动的状态表达出来就成为消息。消息包含信息,是信息的载体,但不是物理性的。把消息换成适合信道传输的物理量(如电信号、光信号、声信号、生物信号等),这种物理量称为信号。信号是信息的载体,是物理性的。

85. 简述信源熵物理含义。

86. (1)信息熵H(X)表示了信源输出前,信源的平均不确定性; (2)信息熵H(X)表示了信源输出后,每个

消息或符号所提供的平均信息量; (3)信息熵H(X)反映了随机变量X 的随机性。

87. 描述最大离散熵定理的内容。

88. 离散无记忆信源输出M 个不同的信息符号,当且仅当各个符号出现概率相等时(即pi=1/M ),熵最大。

111

()(

,,..,)log H X H M M M M

≤= 简答描述单符号离散信源的数学模型。

单符号离散信源输出的消息是以一个符号的形式出现.信源每次只发出一个符号代表一个消息,可用离散随机变量来描述。

设X={ a1,a2 · · · an },这n 个符号消息的概率分布是:

12{(),(),()}n p p a p a p a =

1

212.......()()......().....()i n i n a a a a X p a p a p a P a P ????=????????0≤p(ai)≤1,()1i p a =∑

信源熵、条件熵、联合熵之间的关系。

H(XY)= H(X)+H(Y/X) H(XY)= H(Y)+H(X/Y)

条件熵小于无条件熵,H(Y/X)≤H(Y)。当且仅当y 和x 相互独立p(y/x)=p(y),H(Y/X)=H(Y)。

两个条件下的条件熵小于一个条件下的条件熵H(Z/X,Y)≤H(Z/Y) 当且仅当p(z/x,y)=p(z/y)时取等号。 简述香农第二定理的内容。

答:对任意一个离散无记忆平稳信道,设信道容量为C,则只要信息传输率RC 时不可能找到一种编码,使错误概率pe 趋于零。 简述信源编码的实质。

是对信源的原始符号按一定的数学规则进行的一种变换,以码字代替原始信源符号,使变换后得到的码符号接近等概率分布,从而提高信息的传输有效性。 简述单个符号变长编码定理。

若一离散无记忆信源的符号熵为H(X),每个信源符号用m 进制码元进行变长编码,一定存在一种无失真编码方法,其码字平均长度 满足下列不等式

简单叙述香农编码的步骤。

编码步骤如下:

(1)将信源发出的q

个消息符号按其概率的递减次序依次排列:12...q

p p p ≥≥≥;

(2)按下式计算第i 个消息的二进制代码组的码长i l

,并取整;

log ()log ()1i i i p s l p s -≤<-+

(3)为了编成唯一可译码,首先计算第i 个消息的累加概率1

1

()

i i k k P p s -==∑;

(4)将累加概率

i P (为小数)变换成二进制。

(5)去除小数点,并根据码长i l ,取小数点后i l 位数作为第i 个信源符号的码字,由下式确定:

log ()1i i l p s =-+。

写出费诺编码步骤。

答:1. 将信源消息符号按其出现概率大小依次排列: p(x1)≥p(x2) …. p(xn)。2 .将依次排列的信源符号按概率植分两大组,并对各组赋予一个二进制元码0、1。3.将每一大组的信源符号进一步分组,使划分后的两组概率和近于相同并又赋两组0,1。4.如此重复,至两组只剩下一个信源符号为止。5.信源符号所对应的码字即为费诺码.

写出哈夫曼编码步骤。

(1) 将n 个信源消息符号按其出现的概率大小依次排列,p(x1)≥p(x2)≥…≥p(xn)

(2) 取两个概率最小的字母分别配以0和1两码元,并将这两个概率相加作为一个新字母的概率,与未分配的二进符号的字母重新排队。

(3) 重复步骤(2)的过程,直到最后两个符号配以0和1为止;

(4)从最后一级开始,向前返回得到各个信源符号所对应的码元序列。 描述克劳夫特不等式。

用码树的概念可以推导出唯一可译码存在的充要条件,即各码字的长度Ki 应符合不等式11i n

k i m -=≤∑ m 是进制数,n 是信源符号数 称之为克劳夫特(Kraft)不等式

简单叙述无噪无损信道、无噪有损信道、有噪无损信道的信道容量。 无噪无损信道:

{}{}符号比特/log )(max );(max 1

)()

(r X H Y X I C r

x p x p ====

无噪有损信道:

{}{}符号

比特/log )(max );(max )

()

(s Y H Y X I C x p x p ===

有噪无损信道:

{}{})/(log )(max );(max )

()

(符号比特r x H Y X I C x p x p ===

简单叙述离散信道、连续信道、半连续半离散信道。

离散信道:又称数字信道,该类信道中输入空间、输出空间均为离散时间集合,集合中事件的数量是有限

的,或者无限的,随机变量取值都是离散的。连续信道:又称为模拟信道,输入空间、输出空间均为连续事件集合,集合中事件的数量是无限的、不可数的,即随机变量的取值数量是无限的,或者不可数的。半离散半连续信道:输入空间、输出空间一个为离散事件集合,而另一个则为连续事件集合,即输入、输出随机变量一个是离散的,另一个是连续的。

简述一个通信系统包括的各主要功能模块及其作用 简单叙述算术编码的步骤。

四、大题

某地二月份天气的概率分布统计如下:晴天的概率是1/2,阴天的概率是1/4,雨天的概率是1/8,雪天的概率也是1/8。求此四种气候的自信息量分别的是多少? 解:“I(a1)=1(比特) I(a2)=2(比特),I(a3)=3(比特),I(a4)=3(比特) 英文字母中“e ”出现的概率是0.105,“c ”出现的概率是0.023,“o ”出现的概率 是0.001。分别计算其自信息量。 解:“e ”:I(e)=-㏒20.105=3.25(比特)

“c ”:I(c)=-㏒20.023=5.44(比特)

“o ”:I(o)=-㏒20.001=9.97(比特)

一个布袋内放有100个球,其中80个球是红色的,20个球是白色的,若随机摸取一个球,猜测其颜色,求平均摸取一次所能获得的自信息量。

x1表示摸出的球为红球,x2表示摸出的球为白球 当被告知摸出的是红球,则获得的信息量是: I(x1)=-㏒p(x1)=-㏒0.8(比特)

当被告知摸出的是白球,则获得的信息量是: I(x2)=-㏒p(x2)=-㏒0.2(比特)

同时掷2颗色子,事件A 、B 、C 分别表示:(A)仅有一个色子是3;(B)至少有一个色子是4;(C)色子上点数的总和为偶数。试计算事件A 、B 、C 发生后所提供的信息量。(见课本2-1)

居住某地区的女孩子有20%是大学生,在女大学生中有60%是身高160厘米以上的,而女孩子中身高160厘米以上的占总数的一半。假如我们得知“身高160厘米以上的某女孩是大学生”的消息,问获得多少信息量?

答:设随机变量X 代表女孩子学历 X x1(是大学生) x2(不是大学生) P(X) 0.20 0.80 设随机变量Y 代表女孩子身高 Y y1(身高>160cm ) y2(身高<160cm ) P(Y) 0.5 0.5

已知:在女大学生中有60%是身高160厘米以上的 即:

11(/)0.6p y x =

求:身高160厘米以上的某女孩是大学生的信息量

即:

11111111()(/)0.20.625

(/)log (/)log

log log ()0.56p x p x y I x y p x y bit

p y ?=-=-=-=

一信源有4种输出符号码,Xi(i=0,1,2,3),且p(Xi)=1/4。设信源向信宿发出X3,但由于传输中的干扰,接

收者收到X3后,认为其可信度为0.9。于是信源再次向信宿发送该符号(X3),信宿无误收到。问信源在两次发送中发出的信息量各是多少?信宿在两次接收中得到的信息量又各是多少? 第一次收到的符号为y ,第二次发送无误收到,发、收信息量相等,则 I(X3/y)=-log2p(Xi/y)=-log20.9=0.15(比特) 第一次发出的信息量为

I(X3)=-log2p(Xi)=-log20.25=2(比特)

第一次传送的信息量为两次发送信息量之差, 即 I(X3;y)=I(X3)-I(X3/y)=1.85(比特) 画出一个通信系统包括的各主要功能模块。

一个无记忆信源,随机变量X ∈{0;1}等概分布。 求(1)以单个消息出现的信源熵; (2)两个消息出现信源熵; (3)信源的平均符号熵 (1)11

()()log ()log 2122i i

i

H X p a p a =-=-?=∑

(2)两个消息出现:(N=2的序列) 随机序列(00,01,10,11)X ∈

11

()()log ()log 4244i i i

H X p a p a =-=-?=∑

(3)信源的平均符号熵:

211

()()2122

H X H X =

=?= 已知X ,Y ∈{0,1},X ,Y 构成的联合概率为p(00)=p(11)=1/8,p(01)=p(10)=3/8,计算条件熵H(X/Y)。

211

(/)()log (/)n m

i j i j i j H X Y p x y p x y ===-∑∑

2222(00)log (0/0)(01)log (0/1)(10)log (1/0)(11)log (1/1)p p p p p p =----

p(y1=0)=p(x1y1=00)+p(x2y1=10)=1/8+3/8=4/8=1/2 p(y2=1)=p(x1y2=01)+p(x2y2=11)=1/8+3/8=4/8=1/2 P(0/0)=p(x=0,y=0)=p(x1y1)/p(y1)=p(00)/p(0) =(1/8)∕(1/2)=1/4 = p(1/1) 同理有p(1/0)=p(0/1)=3/4

通信系统物理模型

∴H(X/Y)

=-1/8㏒(1/4)-3/8㏒(3/4)-3/8㏒(3/4)-1/8㏒(1/4) =0.406(比特/符号)

设随机变量X 的概率分布为2221111

[,,,,,,]10101010101010,随机变量Y 是X 的函数,其分布为将X 的4个最小的概率分布合并为一个: 2224

[,,,]10101010

(1)显然H(X)<log27,请解释原因; (2) 计算H(X),H(Y); (3)计算H(X/Y)并解释其结果。

1) H(X)<log27,请解释原因

根据熵的极值性,当随机变量等概分布时,随机变量的熵最大。有7个

可能取值的随机变量的最大熵为Hmax (X )=log27,而随机变量X 不是等概分布,所以H(X)<log27。

(2)2222211()()log ()3log 4log 10101010

H X p x p x =-=-?

-? 226

log 10log 2 3.3220.6 2.72210

=-

=-=

(3)2222244()()log ()3log log 10101010

H Y p y p y =-=-?

- 22264

log 10log 2log 4 3.3220.60.8 1.9221010

=--=--=

有一离散平稳无记忆信源

1

)( ,4141,2

1)(3

1

32

1=???

???????=???? ??∑=i i a p a a a X p X

求:这个信源的二次扩展信源的熵

解:求二次扩展信源。扩展信源是长度为2的消息序列。信源有3个不同的消息,每两个消息组成的不同排列共有32

=9种,构成二次扩展信源的9个不同元素. )()()(21i i i a p a p a p =

二次扩展信源的熵为 )(log )()()(291

i i i N

a p a p X H X H ∑=-==

将表中的数据代入可得)/(3)()(符号比特==N X H X H

一马尔可夫信源的符号集为{0,1,2}X =,其状态集123{,,}S s s s =,各状态之间的状态转移改概率如表,求平稳后信源的概率分布。

(1)根据题意有:

111121231321212223233

131232333()()(/)()(/)()(/)

()()(/)()(/)()(/)()()(/)()(/)()(/)

p s p s p s s p s p s s p s p s s p s p s p s s p s p s s p s p s s p s p s p s s p s p s s p s p s s =++??

=++??=++? 112212

33

12311()()()23112()()()()433111()()()()433p s p s p s p s p s p s p s p s p s p s p s ?=?+???

?

?=?+?+???

?

=?+?+??? 112323

()8/29

()()()1()12/29()9/29p s p s p s p s p s p s =??

++=?=??=?

111121231321212223233131232333()()(/)()(/)()(/)8/29()()(/)()(/)()(/)12/29()()(/)()(/)()(/)9/29

p x p s p x s p s p x s p s p x s p x p s p x s p s p x s p s p x s p x p s p x s p s p x s p s p x s =++=??

=++=??=++=?

012()8/2912/299/29X P X ?????=????

????

有一个马尔可夫信源,己知转移概率为p(el/el)=2/3,p(e2/e1)=1/3,p(e1/e2)=1,p(e2/e2)=0。试画出状态转移图,并求出信源熵。 (见课本2-8)

设信源符号X ∈{0,1},编码器输出符号Y ∈{0,1,2},规定失真函数为d(0,0)=d(1,1)=0;d(0,1)=d(1,0)=1;d(0,2)=d(1,2)=0.5, 求失真矩阵d 。Dmax

111213212223(,),(,),(,)[](,),(,),(,)d x y d x y d x y d d x y d x y d x y ??== ???(0,0),(0,1),(0,2)(1,0),(1,1),(1,2)d d d d d d ?? ???

0,1,0.51,0,0.5??

= ??? Dmax=0.5

一个信源含有三个消息,概率分布为p1=0.2,p2=0.3,p3=0.5,失真函数矩阵为

??

???

?????=102230024][d 求:Dmax,Dmin, R(Dmax),R(Dmin)

在给定的失真函数矩阵中,对每一个x i 找一个最小的d ij 然后求

0min )(min ==∑ij y i

i d x p D j

R(Dmax)=0,

R(Dmin)=R(0)=Hmax(x)=-[0.2log0.2+0.3log0.3+0.5log0.5]

设输入输出符号X=Y={0,1},输入概率分布为p(x)={1/3,2/3},失真矩阵为

11122122(,),(,)0,1(,),(,)1,0d x y d x y d d x y d x y ????== ? ?????

求Dmax 。Dmin

max 1,2 (1)

min

n

i ij

j m

i D p d

===∑

1112211122221,2

min(,)j p d p d p d p d ==++

1,2

min(1/302/31;1/312/30)j ==?+??+?

1,2

min(2/3;1/3)j ==1

3

=

Dmin=0

画出表格中所对应编码的码树。

max

1,2 (1)

min

(0.240.52;20.230.3;0.320.51)

r

i ij

j s

i D p d

====?+??+??+?∑

画出表格中所对应的两种编码方案的码树。

设有离散无记忆信源

1234561111114

4

8

8

8

8x x x x x x X P ??

????=??????

??

(1)编出平均码长最小的哈夫曼码; (2)计算其平均码长;

解:(1)利用霍夫曼编码方法,从而得到123456x x x x x x 、、、、、平均码长最小的霍夫曼码为:10、11、00、01、010、011。 (2) 该霍夫曼码的平均码长为:

5

1

111119

()222232448884i i i L p s l ===?+?+?+?+??=

∑ 设有离散无记忆信源 ??

????=??????05.005.005.005.01.01.02.04.087654321s s s s s s s s

P S (1)编出平均码长最小的哈夫曼码;

(2)计算其平均码长

解:(1)利用霍夫曼编码方法,从而得到s 1s 2s 3s 4s 5s 6s 7s 8平均码长最小的霍夫曼码为: 00、

11、100、101、0100、0101、0110、0111

(2) 该霍夫曼码的平均码长为:

6.2405.0431.0222.024.0)(8

1=??+??+?+?==-=∑i i i l s p L

设信源共7个符号消息,其数学模型如下

1

234567()0.20.190.180.170.150.10.01X x x x x x x x P X ????=?

???????

利用哈夫曼编码方法进行信源编码,画出其过程。

信道转移矩阵为P ????

?

???

??=316131616161313

1

P 求该信道的信道容量 。 该信道是准对称信道,可以分解为三个互不相交的子集,分别为

????

??????=??????????=??????????=6161,3131,316

16131321

P P P

3

/13/22/16/13/12/16/13/1321321======+=M M M N N N

信道转移矩阵为P ???

???????=3131616161613131P 求该信道的信道容量 。

解:由信道转移矩阵可知,矩阵的第二行是第一行的置换,每一列都是第一列的置换,所以信道是对称的,所以信道容量为 ),,,(log 21s p p p H s C -=

)6

1

,61,31,31(4log H -=

082.0=比特∕符号

信道转移矩阵为P ??????----=q p q p

p q

q p P 11 求该信道的信道容量 。 解:从该信道转移矩阵可以看出,该信道是一个准对称信道,可以分解为

??????----=q p p p q p P 111 ??????=q q P 2

q

M q M q N q N 2,1,12121=-==-=

由准对称离散信道的信道容量计算公式

若已知信道矩阵1001000

100100

10P ??

???

?

??=????????

,根据该信道矩阵画出信道图。

画出二元纯对称删除信道。

某二元离散无记忆信道的转移矩阵为?

?????--=p p p p

P 11求对信道进行二次扩展,扩展后的信道转移矩阵及信道容量。

??????????????------------=22222222)1()1()1()1()1()1()1()1()1()1()1()1(p p p p p p p p p p p p p p p p p p p p p p p p Q

由扩展信道的转移矩阵知,二次扩展信道是 对称信道,当输入序列等概率分布时可以达到信息容量C2,将扩展后的每种序列排列认 为是一个符号,二次扩展信道就等价于四元信道,四元对称信道的信道容量为

)),1(),1(,)1((4log 222p p p p p p H C ----=

1 - q

a

1

b 1 b

2

a 2

b 3

1 - q

)),1(),1(,)1((222p p p p p p H ----= 比特/序列

假设信道的输入、输出符号数相等,都等于r,且信道条件转移矩阵为

111111111p p p r r p p p r r p p

p r r ?

?-??--????-??--??????-??

?--?

求信道容量 。 解:显然该信道是对称的,信道容量为

log (1,,,)11

p p

C r H p r r =----

log (1)log(1)(1)log 11

p p

r p p r r r =+--+---

log ()log(1)r H p p r =---

设有单符号离散信道,信道矩阵为??

??

?

?????=0.4 0.3 0.30.5 0.3 0.20.2 0.3 5.0P 求下面译码函数(规则)的pe 。 ?????===2*33*21*1)()()(:a b F a b F a b F A ??

?

??===3*32*21

*1)()()(:a b F a b F a b F B

解:根据最大似然译码准则可选取译码函数A,在输入等概率分布时可使pe 最小。 ∑∑=≠=s

j i i j e a b p p 1*

)|(31

=(1/3)(0.2+0.3+0.3+0.3+0.2+0.4)=0.567 若选择B:

'

e p =(1/3)(0.2+0.3+0.3+0.3+0.2+0.5)=0.600

分别写出循环码(7,4)对应于序列0100和1001的码字。 对0100:

3223210()m x m x m x m x m x =+++=…….(3分)

232542()()()(1)c x m x g x x x x x x x ==++=++…….(2分) 得0110100…….(1分) 对1001

3()1m x x =+653()1c x x x x =+++…….(5分) 得 1101001…….(1分)。

答案~信息论与编码练习

1、有一个二元对称信道,其信道矩阵如下图所示。设该信道以1500个二元符号/秒的速度传输输入符号。现有一消息序列共有14000个二元符号,并设在这消息中P(0)=P(1)=1/2。问从信息传输的角度来考虑,10秒钟内能否将这消息序列无失真地传送完? 解答:消息是一个二元序列,且为等概率分布,即P(0)=P(1)=1/2,故信源的熵为H(X)=1(bit/symbol)。则该消息序列含有的信息量=14000(bit/symbol)。 下面计算该二元对称信道能传输的最大的信息传输速率: 信道传递矩阵为: 信道容量(最大信息传输率)为: C=1-H(P)=1-H(0.98)≈0.8586bit/symbol 得最大信息传输速率为: Rt ≈1500符号/秒× 0.8586比特/符号 ≈1287.9比特/秒 ≈1.288×103比特/秒 此信道10秒钟内能无失真传输得最大信息量=10× Rt ≈ 1.288×104比特 可见,此信道10秒内能无失真传输得最大信息量小于这消息序列所含有的信息量,故从信息传输的角度来考虑,不可能在10秒钟内将这消息无失真的传送完。 2、若已知信道输入分布为等概率分布,且有如下两个信道,其转移概率矩阵分别为: 试求这两个信道的信道容量,并问这两个信道是否有噪声? 3 、已知随即变量X 和Y 的联合分布如下所示: 01 100.980.020.020.98P ?? =?? ??11112222 1111222212111122221111222200000000000000000000000000000000P P ????????????==????????????11 222 2111 2222 2 log 4(00)1/()log 42/log 8(000000)2/(),H bit symbol H X bit symbol C C H bit symbol H X C =-===>=-==1解答:(1)由信道1的信道矩阵可知为对称信道故C 有熵损失,有噪声。(2)为对称信道,输入为等概率分布时达到信道容量无噪声

信息论与编码复习题目

信息论复习提纲 第一章绪论 1.通信系统模型; 2.香浓信息的概念; 3.信源、信道、信源编码和信道编码研究的核心问题。 第二章离散信源及信源熵 1.离散信息量、联合信息量、条件信息量、互信息量定义; 2.信源熵、条件熵、联合熵定义; 3.平均互信息量定义、性质、三种表达式及物理意义,与其它熵的关系(不证明); 4.最大信源熵定理及证明; 5.本章所有讲过的例题; 第三章离散信源的信源编码 1.信息传输速率、编码效率定义; 2.最佳编码定理(即节定理:概率越大,码长越小;概率越小,码长越大)及证明; 3.码组为即时码的充要条件; 4.单义可译定理(Kraft不等式)及应用; 5.费诺编码方法、霍夫曼编码方法应用(二进制,三进制,四进制);6.本章所有讲过的例题; 第四章离散信道容量 1.利用信道矩阵计算信道容量(离散无噪信道、强对称离散信道、对称离

散信道、准对称离散信道); 2.本章讲过的例题; 第五章连续消息和连续信道 1.相对熵的定义; 2.均匀分布、高斯分布、指数分布的相对熵及证明; 3.峰值功率受限条件下的最大熵定理及证明,平均功率受限条件下的最大熵定理及证明,均值受限条件下的最大熵定理及证明; 4.香农公式及意义; 5.本章所有讲过的例题; 第六章差错控制 1.重量、最小重量、汉明距离、最小汉明距离、编码效率的定义;2.最小距离与检错、纠错的关系(即节定理); 3.本章所有讲过的例题; 第七章线性分组码 1.线性分组码定义; 2.线性分组码的最小距离与最小重量的关系及证明; 3.生成矩阵、一致校验矩阵定义,给出线性方程组求出生成矩阵和一致校验矩阵的标准形式,生成矩阵与一致校验矩阵的关系; 4.制作标准阵列并利用标准阵列译码; 5.本章所有讲过的例题; 第八章循环码 1.生成多项式的特点,有关定理(三定理1,定理2,定理3)及证明;

《编译原理》模拟期末试题汇总 6套,含答案

《编译原理》模拟试题一 一、是非题(请在括号内,正确的划√,错误的划×)(每个2分,共20分) 1.计算机高级语言翻译成低级语言只有解释一种方式。(×) 2.在编译中进行语法检查的目的是为了发现程序中所有错误。(×) 3.甲机上的某编译程序在乙机上能直接使用的必要条件是甲机和乙机的操作系统功能完全相同。 (√ ) 4.正则文法其产生式为 A->a , A->Bb, A,B∈VN , a 、b∈VT 。 (×) 5.每个文法都能改写为 LL(1) 文法。 (√) 6.递归下降法允许任一非终极符是直接左递归的。 (√) 7.算符优先关系表不一定存在对应的优先函数。 (×) 8.自底而上语法分析方法的主要问题是候选式的选择。 (×) 9.LR 法是自顶向下语法分析方法。 (×) 10.简单优先文法允许任意两个产生式具有相同右部。 (×) 二、选择题(请在前括号内选择最确切的一项作为答案划一个勾,多划按错论)(每个4分,共40分) 1.一个编译程序中,不仅包含词法分析,_____,中间代码生成,代码优化,目标代码生成等五个部分。 A.( ) 语法分析B.( )文法分析C.( )语言分析D.( )解释分析 2.词法分析器用于识别_____。 A.( ) 字符串B.( )语句 C.( )单词 D.( )标识符 3.语法分析器则可以发现源程序中的_____。 A.( ) 语义错误 B.( ) 语法和语义错误 C.( ) 错误并校正D.( ) 语法错误 4.下面关于解释程序的描述正确的是_____。

(1) 解释程序的特点是处理程序时不产生目标代码 (2) 解释程序适用于 COBOL 和 FORTRAN 语言 (3) 解释程序是为打开编译程序技术的僵局而开发的 A.( ) (1)(2) B.( ) (1)C.( ) (1)(2)(3) D.( ) (2)(3) 5.解释程序处理语言时 , 大多数采用的是_____方法。 A.( ) 源程序命令被逐个直接解释执行 B.( ) 先将源程序转化为中间代码 , 再解释执行 C.( ) 先将源程序解释转化为目标程序 , 再执行 D.( ) 以上方法都可以 6.编译过程中 , 语法分析器的任务就是_____。 (1) 分析单词是怎样构成的 (2) 分析单词串是如何构成语句和说明的 (3) 分析语句和说明是如何构成程序的 (4) 分析程序的结构 A.( ) (2)(3) B.( ) (2)(3)(4) C.( ) (1)(2)(3) D.( ) (1)(2)(3)(4) 7.编译程序是一种_____。 A. ( ) 汇编程序B.( ) 翻译程序 C.( ) 解释程序 D.( ) 目标程序 8.文法 G 所描述的语言是_____的集合。 A. ( ) 文法 G 的字母表 V 中所有符号组成的符号串 B.( ) 文法 G 的字母表 V 的闭包 V* 中的所有符号串 C.( ) 由文法的开始符号推出的所有终极符串 D. ( ) 由文法的开始符号推出的所有符号串 9.文法分为四种类型,即0型、1型、2型、3型。其中3型文法是_____。 A. ( ) 短语文法 B.( ) 正则文法 C.( ) 上下文有关文法 D.( ) 上下文无关文法 10.一个上下文无关文法 G 包括四个组成部分,它们是:一组非终结符号,一组终结符号,一个开始符号,以及一组 _____。 A.( ) 句子B.( ) 句型 C.( ) 单词 D.( ) 产生式 三、填空题(每空1分,共10分)

信息论与编码试卷与答案

一、(11’)填空题 (1)1948年,美国数学家香农发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。 (2)必然事件的自信息是 0 。 (3)离散平稳无记忆信源X的N次扩展信源的熵等于离散信源X的熵的 N倍。 (4)对于离散无记忆信源,当信源熵有最大值时,满足条件为__信源符号等概分布_。 (5)若一离散无记忆信源的信源熵H(X)等于2.5,对信源进行等长的无失真二进制编码,则编码长度至少为 3 。 (6)对于香农编码、费诺编码和霍夫曼编码,编码方法惟一的是香农编码。(7)已知某线性分组码的最小汉明距离为3,那么这组码最多能检测出_2_______个码元错误,最多能纠正___1__个码元错误。 (8)设有一离散无记忆平稳信道,其信道容量为C,只要待传送的信息传输率R__小于___C(大于、小于或者等于),则存在一种编码,当输入序列长度n足够大,使译码错误概率任意小。(9)平均错误概率不仅与信道本身的统计特性有关,还与___译码规则____________和___编码方法___有关 三、(5')居住在某地区的女孩中有25%是大学生,在女大学生中有75%是身高1.6米以上的,而女孩中身高1.6米以上的占总数的一半。 假如我们得知“身高1.6米以上的某女孩是大学生”的消息,问获得多少信息量? 解:设A表示“大学生”这一事件,B表示“身高1.60以上”这一事件,则 P(A)=0.25 p(B)=0.5 p(B|A)=0.75 (2分) 故 p(A|B)=p(AB)/p(B)=p(A)p(B|A)/p(B)=0.75*0.25/0.5=0.375 (2分) I(A|B)=-log0.375=1.42bit (1分) 四、(5')证明:平均互信息量同信息熵之间满足 I(X;Y)=H(X)+H(Y)-H(XY) 证明:

信息论与编码试题集与答案(2014)

一填空题 1、平均自信息为 表示信源的平均不确定度,也表示平均每个信源消息所提供的信息量。 平均互信息 表示从Y 获得的关于每个X 的平均信息量,也表示发X 前后Y 的平均不确定性减少的量,还表示通信前 后整个系统不确定性减少的量。 2、最大离散熵定理为:离散无记忆信源,等概率分布时熵最大,最大熵值为。 3、香农公式为 为保证足够大的信道容量,可采用(1)用频带换信噪比; (2)用信噪比换频带。 4、只要,当N 足够长时,一定存在一种无失真编码。 5、当R <C 时,只要码长足够长,一定能找到一种编码方法和译码规则,使译码错误概率无穷小。 6、1948年,美国数学家 香农 发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。 7.人们研究信息论的目的是为了 高效、可靠、安全 地交换和利用各种各样的信息。 8.信息的 可度量性 是建立信息论的基础。 9.统计度量 是信息度量最常用的方法。 10、单符号离散信源一般用随机变量描述,而多符号离散信源一般用 随机矢量 描述。 11、一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为 其发生概率对数的负值 。 12、自信息量的单位一般有 比特、奈特和哈特 。 13、必然事件的自信息是 0 。 14、不可能事件的自信息量是 ∞ 。 15、两个相互独立的随机变量的联合自信息量等于 两个自信息量之和 。 16、数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量 趋于变小 。 17、离散平稳无记忆信源X 的N 次扩展信源的熵等于离散信源X 的熵的 N 倍 。 18、离散平稳有记忆信源的极限熵,=∞H )/(lim 121-∞→N N N X X X X H 。 19、对于n 元m 阶马尔可夫信源,其状态空间共有 n m 个不同的状态。 20、一维连续随即变量X 在[a ,b]区间内均匀分布时,其信源熵为 log2(b-a ) 。

信息论与编码技术复习题2

《信息论与编码技术》复习题(2) 一、(32分)综合概念题 1. 什么是系统码和典型矩阵?写出常用的典型生成矩阵的两种形式。 2. 根据平均互信息定义的信道容量是指: a. 信道固定时的最大平均互信息; b. 信道固定时的最小平均互信息; c. 信源固定时的信道的最小平均互信息; d. 信源固定时的信道的最大平均互信息。 3. 什么是离散平稳信源? a. 任意两个不同时刻随机矢量的各维概率分布都相同; b. 任意两个不同时刻随机矢量的各维概率分布都不相同; c. 任意两个不同时刻随机矢量的各维概率密度函数都相同; d. 任意两个不同时刻随机矢量的各维概率密度函数都不相同。 4. 设计一个信道容量为22 kbit/s 的电话信道,若信道上的信号与噪声的平均功率比值为20 dB ,请问该信道的通频带应该为多少? 5. 设信源有q 个符号,则当信源 分布时熵最大,其最大值为 。 6. 当信道固定时,平均互信息是输入分布的 函数;当信源固定时,平均互信息是信道转移概率的 函数。 7. 信源编码是通过压缩信源冗余度来提高 ,而信道编码是增加冗余度来提高 。 8. 请判断具有下列码长{1, 2, 3, 3, 3, 4}的二进制码是否可构成唯一可译码。 二、(10分)设有对称信源(s = r = 4),信源X = {a 1, a 2, ..., a r } = {0, 1, 2, 3},信宿Y = { b 1, b 2, ..., b s } = {0, 1, 2, 3}。若失真度定义为:d (a i , b j ) = (b j -a i )2,求其失真矩阵D 。 三、(15分)某离散无记忆信源?? ????=??????4.06.0)(21a a x p X ,通过图1的信道传输,求: 图1 离散信道 (1)该信源中a 1和 a 2分别含有的自信息; (2)X 和Y 的信息熵; (3)信道的疑义度H (X|Y ); (4)接收到信息Y 后获得的平均互信息量。 四、(16分)设有一个离散无记忆信源?? ????=??????5.03.02.0)(321a a a x p X , (1)对该信源进行二元费诺编码,计算其平均码长和编码效率;

最新编译原理试题汇总+编译原理期末试题(8套含答案+大题集)

编译原理考试题及答案汇总一、选择 1.将编译程序分成若干个“遍”是为了_B__。 A . 提高程序的执行效率 B.使程序的结构更加清晰 C. 利用有限的机器内存并提高机器的执行效率 D.利用有限的机器内存但降低了机器的执行效率 2.正规式 MI 和 M2 等价是指__C__。 A . MI 和 M2 的状态数相等 B.Ml 和 M2 的有向弧条数相等。 C .M1 和 M2 所识别的语言集相等 D. Ml 和 M2 状态数和有向弧条数相等 3.中间代码生成时所依据的是 _C_。 A.语法规则 B.词法规则 C.语义规则 D.等价变换规则 4.后缀式 ab+cd+/可用表达式__B_来表示。 A. a+b/c+d B.(a+b)/(c+d) C. a+b/(c+d) D. a+b+c/d 6.一个编译程序中,不仅包含词法分析,_A____,中间代码生成,代码优化,目标代码生成等五个部分。 A.( ) 语法分析 B.( )文法分析 C.( )语言分析 D.( )解释分析 7.词法分析器用于识别__C___。 A.( ) 字符串 B.( )语句 C.( )单词 D.( )标识符 8.语法分析器则可以发现源程序中的___D__。 A.( ) 语义错误 B.( ) 语法和语义错误 C.( ) 错误并校正 D.( ) 语法错误 9.下面关于解释程序的描述正确的是__B___。 (1) 解释程序的特点是处理程序时不产生目标代码 (2) 解释程序适用于 COBOL 和 FORTRAN 语言 (3) 解释程序是为打开编译程序技术的僵局而开发的 A.( ) (1)(2) B.( ) (1) C.( ) (1)(2)(3) D.( ) (2)(3) 10.解释程序处理语言时 , 大多数采用的是__B___方法。 A.( ) 源程序命令被逐个直接解释执行 B.( ) 先将源程序转化为中间代码 , 再解释执行 C.( ) 先将源程序解释转化为目标程序 , 再执行 D.( ) 以上方法都可以 11.编译过程中 , 语法分析器的任务就是__B___。 (1) 分析单词是怎样构成的 (2) 分析单词串是如何构成语句和说明的 (3) 分析语句和说明是如何构成程序的 (4) 分析程序的结构 A.( ) (2)(3) B.( ) (2)(3)(4)C.( ) (1)(2)(3) D.( ) (1)(2)(3)(4) 12.编译程序是一种___C__。 A. ( ) 汇编程序 B.( ) 翻译程序 C.( ) 解释程序 D.( ) 目标程序 13.文法 G 所描述的语言是_C____的集合。 A. ( ) 文法 G 的字母表 V 中所有符号组成的符号串 B.( ) 文法 G 的字母表 V 的闭包 V* 中的所有符号串 C.( ) 由文法的开始符号推出的所有终极符串 D. ( ) 由文法的开始符号推出的所有符号串 14.文法分为四种类型,即 0 型、1 型、2 型、3 型。其中 3 型文法是___B__。 A. ( ) 短语文法 B.( ) 正则文法 C.( ) 上下文有关文法 D.( ) 上下文无关文法15.一个上下文无关文法 G 包括四个组成部分,它们是:一组非终结符号,一组终结符号,一个开始符号,以及一组 __D___。 A.( ) 句子 B.( ) 句型 C.( ) 单词 D.( ) 产生式

信息论与编码试题-精选.

模拟试题一 一、概念简答题(共10题,每题5分) 1.简述离散信源和连续信源的最大熵定理。 2.什么是平均自信息(信息熵)?什么是平均互信息?比较一下两个概念的异同之处。 3.解释等长信源编码定理和无失真变长信源编码定理,说明对于等长码和变长码,最佳码的每符号平均码长最小为多少?编码效率最高可达多少? 4.解释最小错误概率译码准则,最大似然译码准则和最小距离译码准则,说明三者的关系。 5.设某二元码字C={111000,001011,010110,101110}, ①假设码字等概率分布,计算此码的编码效率? ②采用最小距离译码准则,当接收序列为110110时,应译成什么码字? 6.一平稳二元信源,它在任意时间,不论以前发出过什么符号,都按 发出符号,求

和平均符号熵 7.分别说明信源的概率分布和信道转移概率对平均互信息的影响,说明平均互信息与信道容量的关系。

8.二元无记忆信源,有求:(1)某一信源序列由100个二元符号组成,其中有m个“1”,求其自信息量?(2)求100个符号构成的信源序列的熵。 9.求以下三个信道的信道容量:

,,

10.已知一(3,1,3)卷积码编码器,输入输出关系为:

试给出其编码原理框图。 二、综合题(共5题,每题10分) 1.二元平稳马氏链,已知P(0/0)=0.9,P(1/1)=0.8,求: (1)求该马氏信源的符号熵。 (2)每三个符号合成一个来编二进制Huffman码,试建立新信源的模型,给出编码结果。 (3)求每符号对应的平均码长和编码效率。 2.设有一离散信道,其信道矩阵为,求:(1)最佳概率分布?

信息论与编码课后习题答案

1. 有一个马尔可夫信源,已知p(x 1|x 1)=2/3,p(x 2|x 1)=1/3,p(x 1|x 2)=1,p(x 2|x 2)=0,试画出该信源的香农线图,并求出信源熵。 解:该信源的香农线图为: 1/3 ○ ○ 2/3 (x 1) 1 (x 2) 在计算信源熵之前,先用转移概率求稳定状态下二个状态x 1和 x 2 的概率)(1x p 和)(2x p 立方程:)()()(1111x p x x p x p =+)()(221x p x x p =)()(2132x p x p + )()()(1122x p x x p x p =+)()(222x p x x p =)(0)(2131x p x p + )()(21x p x p +=1 得4 3 1)(=x p 4 12)(=x p 马尔可夫信源熵H = ∑∑- I J i j i j i x x p x x p x p )(log )()( 得 H=0.689bit/符号 2.设有一个无记忆信源发出符号A 和B ,已知4 341)(.)(= =B p A p 。求: ①计算该信源熵; ②设该信源改为发出二重符号序列消息的信源,采用费诺编码方法,求其平均信息传输速率; ③又设该信源改为发三重序列消息的信源,采用霍夫曼编码方法,求其平均信息传输速率。 解:①∑- =X i i x p x p X H )(log )()( =0.812 bit/符号 ②发出二重符号序列消息的信源,发出四种消息的概率分别为 用费诺编码方法 代码组 b i BB 0 1 BA 10 2 AB 110 3 AA 111 3 无记忆信源 624.1)(2)(2 ==X H X H bit/双符号 平均代码组长度 2B =1.687 bit/双符号 B X H R )(22==0.963 bit/码元时间 ③三重符号序列消息有8个,它们的概率分别为 用霍夫曼编码方法 代码组 b i BBB 64 27 0 0 1 BBA 64 9 0 )(6419 1 110 3

信息论与编码复习题,德州学院

一、填空 1. 信息论基础主要研究信息的测度、 信道容量 、 信源和信道编码理论 等问题。 2. 必然事件的自信息量是0,不可能事件的自信息量是无穷大。 3. 若把掷骰子的结果作为一离散信源,则信源熵为 2log 。 4. 当事件i x 和j y 彼此之间相互独立时,平均互信息量为 0 。 5. 若二维平稳信源的信源熵为3bit/sign ,则其平均符号熵为1.5bit/sign 。 6. 信源熵H(X)表示信源输出后每个消息所提供的 平均信息量 。 7. 布袋中有红白球各50只,若从中随意取出一只球,则判断其颜色所需的信息量为 1bit 。 8. 单符号离散信源是用随机变量来描述的,则多符号离散信源用随机矢量来描述。 9. 平均互信息量与信息熵、联合熵的关系是I(X;Y)=H(X)+H(Y)-H(XY) 。 10. 条件熵H (x|y )和无条件熵H (X )的关系是小于等于。 11. 对于理想信道,H (x|y )等于0 ;I (x ;y )= H (X )。 12. 若YZ 统计独立,则H (YZ )和H (Y )、H (Z )之间的关系是H (YZ )=H (Y )+H (Z ) 。 13. 对某含有7个消息的信源,其熵的最大值为2log 7,对应为等概分布分布。 14. 对某含有8个消息的信源,其熵的最大值为2log 8,对应为等概分布。 15. 对某含有6个消息的信源,其熵的最大值为2log 6,对应为等概分布。 16. 对某含有9个消息的信源,其熵的最大值为2log 9,对应为等概分布。 17. 十六进制脉冲所含的信息量是四进制脉冲的2 倍。 18. 八进制脉冲所含的信息量是二进制脉冲的3倍。 19. 十六进制脉冲所含的信息量是二进制脉冲的 4倍。 20. 离散平稳无记忆信源的N 次扩展信源的熵等于离散信源熵的N 倍。 21. 离散信源的熵越小,则该信源消息之间的平均不确定性越弱。 22. 对于r 进制树图,n 级节点的个数一般为n r 。 23. 信道中任一时刻输出符号仅统计依赖于对应时刻的输入符号,而与非对应时刻的输入符号及其它任何 时刻的输出符号无关,这种信道称之为 有干扰无记忆信道 。 24. 对于某一信源和某一符号集来说,若有一个唯一可译码,其平均码长小于所有其它唯一可译码的平均 码长,则称该码为紧致码或最佳码 。 25. 分组码是前向纠错码 ,它可以在无需重新发射的情况下检测出有限个错码,并加以纠正。 26. 信源编码的目的是提高通信的有效性。 27. 对于香农编码和哈夫曼编码,编码方法唯一的是香农编码 。 28. 若纠错码的最小距离为dmin,则可以纠错任意小于等于(dmin-1)/2个差错。 29. 线性分组码是同时具有线性特性和分组特性的纠错码。 30. 道的输出仅与当前输入有关,而与过去无关的信道称无记忆信道。 31. 唯一可译码存在的充要条件是 1 1i n k i m -=≤∑ 。 32. 编码分为信源编码和信道编码两种。 33. 信道无失真传输信息的条件是信息传输速率小于信道容量。 34. 对称信道中,信源的最佳分布为等概分布。 35. 信源编码和信道编码的最大区别在于信源编码需减少信源的冗余度,而信道编码需增加信源的冗余。 36. 信道编码的目的是提高通信的可靠性。 37. 离散信源分为离散无记忆信源 和 离散有记忆信源。

编译原理试题(卷)汇总-编译原理期末试题(卷)(8套含答案解析-大题集)

编译原理考试题及答案汇总 一、选择 1.将编译程序分成若干个“遍”是为了_B__。 A . 提高程序的执行效率 B.使程序的结构更加清晰 C. 利用有限的机器内存并提高机器的执行效率 D.利用有限的机器内存但降低了机器的执行效率 2.正规式 MI 和 M2 等价是指__C__。 A . MI 和 M2 的状态数相等 B.Ml 和 M2 的有向弧条数相等。 C .M1 和 M2 所识别的语言集相等 D. Ml 和 M2 状态数和有向弧条数相等 3.中间代码生成时所依据的是 _C_。 A.语法规则 B.词法规则 C.语义规则 D.等价变换规则 4.后缀式 ab+cd+/可用表达式__B_来表示。 A. a+b/c+d B.(a+b)/(c+d) C. a+b/(c+d) D. a+b+c/d 6.一个编译程序中,不仅包含词法分析,_A____,中间代码生成,代码优化,目标代码生成等五个部分。 A.( ) 语法分析 B.( )文法分析 C.( )语言分析 D.( )解释分析 7.词法分析器用于识别__C___。 A.( ) 字符串 B.( )语句 C.( )单词 D.( )标识符 8.语法分析器则可以发现源程序中的___D__。 A.( ) 语义错误 B.( ) 语法和语义错误 C.( ) 错误并校正 D.( ) 语法错误 9.下面关于解释程序的描述正确的是__B___。 (1) 解释程序的特点是处理程序时不产生目标代码 (2) 解释程序适用于 COBOL 和 FORTRAN 语言 (3) 解释程序是为打开编译程序技术的僵局而开发的 A.( ) (1)(2) B.( ) (1) C.( ) (1)(2)(3) D.( ) (2)(3) 10.解释程序处理语言时 , 大多数采用的是__B___方法。 A.( ) 源程序命令被逐个直接解释执行 B.( ) 先将源程序转化为中间代码 , 再解释执行 C.( ) 先将源程序解释转化为目标程序 , 再执行 D.( ) 以上方法都可以 11.编译过程中 , 语法分析器的任务就是__B___。 (1) 分析单词是怎样构成的 (2) 分析单词串是如何构成语句和说明的 (3) 分析语句和说明是如何构成程序的 (4) 分析程序的结构 A.( ) (2)(3) B.( ) (2)(3)(4)C.( ) (1)(2)(3) D.( ) (1)(2)(3)(4) 12.编译程序是一种___C__。 A. ( ) 汇编程序 B.( ) 翻译程序 C.( ) 解释程序 D.( ) 目标程序 13.文法 G 所描述的语言是_C____的集合。 A. ( ) 文法 G 的字母表 V 中所有符号组成的符号串 B.( ) 文法 G 的字母表 V 的闭包 V* 中的所有符号串 C.( ) 由文法的开始符号推出的所有终极符串 D. ( ) 由文法的开始符号推出的所有符号串 14.文法分为四种类型,即 0 型、1 型、2 型、3 型。其中 3 型文法是___B__。 A. ( ) 短语文法 B.( ) 正则文法 C.( ) 上下文有关文法 D.( ) 上下文无关文法15.一个上下文无关文法 G 包括四个组成部分,它们是:一组非终结符号,一组终结符号,一个开始符号,以及一组 __D___。 A.( ) 句子 B.( ) 句型 C.( ) 单词 D.( ) 产生式 16.通常一个编译程序中,不仅包含词法分析,语法分析,中间代码生成,代码优化,目标代码生成等五个部分,还应包括_C____。

信息论与编码试卷及答案

一、概念简答题(每题5分,共40分) 1.什么是平均自信息量与平均互信息,比较一下这两个概念的异同? 平均自信息为:表示信源的平均不确定度,表示平均每个信源消息所提供的信息量。 平均互信息:表示从Y获得的关于每个X的平均信息量;表示发X前后Y的平均不确定性减少的量;表示通信前后整个系统不确定性减少的量。 2.简述最大离散熵定理。对于一个有m个符号的离散信源,其最大熵是多少? 最大离散熵定理为:离散无记忆信源,等概率分布时熵最大。 最大熵值为 3.解释信息传输率、信道容量、最佳输入分布的概念,说明平均互信息与信源的概率分布、信道的传递概率间分别是什么关系? 信息传输率R指信道中平均每个符号所能传送的信息量。信道容量是一个信道所能达到的最大信息传输率。信息传输率达到信道容量时所对应的输入概率分布称为最佳输入概率分布。 平均互信息是信源概率分布的∩型凸函数,是信道传递概率的U型凸函数。 4.对于一个一般的通信系统,试给出其系统模型框图,并结合此图,解释数据处理定理。 数据处理定理为:串联信道的输入输出X、Y、Z组成一个马尔可夫链,且有, 。说明经数据处理后,一般只会增加信息的损失。

5.写出香农公式,并说明其物理意义。当信道带宽为5000Hz,信噪比为30dB时求信道容量。香农公式为 ,它是高斯加性白噪声信道在单位时间内的信道容量,其值取决于信噪比和带宽。 由得,则 6.解释无失真变长信源编码定理。只要,当N足够长时,一定存在一种无失真编码。 7.解释有噪信道编码定理。答:当R<C时,只要码长足够长,一定能找到一种编码方法和译码规则,使译码错误概率无穷小。 8.什么是保真度准则?对二元信源,其失真矩阵,求a>0时率失真函数的和?答:1)保真度准则为:平均失真度不大于允许的失真度。 2)因为失真矩阵中每行都有一个0,所以有,而。 二、综合题(每题10分,共60分) 1.黑白气象传真图的消息只有黑色和白色两种,求: 1)黑色出现的概率为0.3,白色出现的概率为0.7。给出这个只有两个符号的信源X的数学模型。假设图上黑白消息出现前后没有关联,求熵;

信息论和编码理论习题集答案解析

第二章 信息量和熵 2.2 八元编码系统,码长为3,第一个符号用于同步,每秒1000个码字,求它 的信息速率。 解:同步信息均相同,不含信息,因此 每个码字的信息量为 2?8log =2?3=6 bit 因此,信息速率为 6?1000=6000 bit/s 2.3 掷一对无偏骰子,告诉你得到的总的点数为:(a) 7; (b) 12。问各得到多 少信息量。 解:(1) 可能的组合为 {1,6},{2,5},{3,4},{4,3},{5,2},{6,1} )(a p = 366=6 1 得到的信息量 =) (1 log a p =6log =2.585 bit (2) 可能的唯一,为 {6,6} )( b p = 36 1 得到的信息量=) (1 log b p =36log =5.17 bit 2.4 经过充分洗牌后的一副扑克(52张),问: (a) 任何一种特定的排列所给出的信息量是多少? (b) 若从中抽取13张牌,所给出的点数都不相同时得到多少信息量?

解:(a) )(a p = ! 521 信息量=) (1 log a p =!52log =225.58 bit (b) ???????花色任选 种点数任意排列 13413!13 )(b p =13 52 134!13A ?=135213 4C 信息量=1313 52 4log log -C =13.208 bit 2.9 随机掷3颗骰子,X 表示第一颗骰子的结果,Y 表示第一和第二颗骰子的点 数之和,Z 表示3颗骰子的点数之和,试求)|(Y Z H 、)|(Y X H 、),|(Y X Z H 、 )|,(Y Z X H 、)|(X Z H 。 解:令第一第二第三颗骰子的结果分别为321,,x x x ,1x ,2x ,3x 相互独立, 则1x X =,21x x Y +=,321x x x Z ++= )|(Y Z H =)(3x H =log 6=2.585 bit )|(X Z H =)(32x x H +=)(Y H =2?( 361log 36+362log 18+363log 12+364log 9+365log 536)+36 6log 6 =3.2744 bit )|(Y X H =)(X H -);(Y X I =)(X H -[)(Y H -)|(X Y H ] 而)|(X Y H =)(X H ,所以)|(Y X H = 2)(X H -)(Y H =1.8955 bit 或)|(Y X H =)(XY H -)(Y H =)(X H +)|(X Y H -)(Y H 而)|(X Y H =)(X H ,所以)|(Y X H =2)(X H -)(Y H =1.8955 bit

信息论与编码试题集与答案

一填空题(本题20分,每小题2分) 1、平均自信息为 表示信源的平均不确定度,也表示平均每个信源消息所提供的信息量。 平均互信息 表示从Y获得的关于每个X的平均信息量,也表示发X前后Y的平均不确定性减少的量,还表示通信前后整个系统不确定性减少的量。 2、最大离散熵定理为:离散无记忆信源,等概率分布时熵最大。 3、最大熵值为。 4、通信系统模型如下: 5、香农公式为为保证足够大的信道容量,可采用(1)用频带换信噪比;(2)用信噪比换频带。 6、只要,当N足够长时,一定存在一种无失真编码。 7、当R<C时,只要码长足够长,一定能找到一种编码方法和译码规则,使译码错误概率无穷小。 8、在认识论层次上研究信息的时候,必须同时考虑到形式、含义和效用三个方面的因素。 9、1948年,美国数学家香农发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。 按照信息的性质,可以把信息分成语法信息、语义信息和语用信息。 按照信息的地位,可以把信息分成客观信息和主观信息。 人们研究信息论的目的是为了高效、可靠、安全地交换和利用各种各样的信息。 信息的可度量性是建立信息论的基础。 统计度量是信息度量最常用的方法。 熵是香农信息论最基本最重要的概念。 事物的不确定度是用时间统计发生概率的对数来描述的。 10、单符号离散信源一般用随机变量描述,而多符号离散信源一般用随机矢量描述。 11、一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为其发生概率对数的负值。 12、自信息量的单位一般有比特、奈特和哈特。 13、必然事件的自信息是 0 。 14、不可能事件的自信息量是∞。 15、两个相互独立的随机变量的联合自信息量等于两个自信息量之和。 16、数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量趋于变小。 17、离散平稳无记忆信源X的N次扩展信源的熵等于离散信源X的熵的 N倍。 18、离散平稳有记忆信源的极限熵,。 19、对于n元m阶马尔可夫信源,其状态空间共有 nm 个不同的状态。 20、一维连续随即变量X在[a,b]区间内均匀分布时,其信源熵为 log2(b-a)。

信息论与编码复习题

1.从大量统计中知道,男性红绿色盲的发病率为 1 16 ,女性发病率为1 64,如果你问一对男女“你是否是红绿色盲?”他们分别回答可能是“是”。问此回答各含多少信息量?平均每个回答各含多少信息量?4,6,11/32 2. 地区的女孩中有25%是大学生,在女大学生中有75%是身高1.6米以上的,而女孩中身高1.6米以上的占半数一半。假如我们得知“身 高1.6米以上的某女孩是大学生”的消息,问获得多少信息量?28 log 3 3.设有一连续随机变量,其概率密度函数为:2,01 ()0,bx x p x others ?≤≤=??, 试求这随机变量的熵。又若1(0)Y X K K =+>,22Y X =,试分别求出 1Y 和2Y 的熵1()C H Y 和2()C H Y 。 4. 设随机变量X 取值于0{}k X k +∞==, ()k P X k P ==,0,1,,k = 已知X 的数学期望0EX A =>,求使()H X 达到最大的概率分布和该分布的熵. 5.设Markov 信源的状态空间为:12{,}{0,1}S S =,其一步转移概率如下: 11211222(|)0.25, (|)0.75, (|)0.6, (|)0.4. P S S P S S P S S P S S ==== 1)画出状态转移图? 2)求该信源的平稳分布.4/9,5/9

3)求该信源的极限分布. 6. 一信源产生概率为995.0)0(,005.0)1(==P P 的统计独立二进制数符。这些数符组成长度为100的数符组。我们为每一个含有3个或少于3个“1”的源数符组提供一个二进制码字,所有码字的长度相等。 ①求出为所规定的所有源符组都提供码字所需的最小码长。18 ②求信源发出一数符组,而编码器无相应码字的概率。0.00168515 7 .设有一Markov 信源,其状态集为123{,,}S s s s =,符号集为123{,,}x x x ,在某状态下发出符号的概率如图所示。 (1)、证明该信源的遍历性,并求其稳定分布; (2)、求该信源的极限熵; 10/9 (3)、求信源稳定后符号123{,,}x x x 的概率分布。 15/27,5/27,7/27 8. 离散无记忆信道的转移概率矩阵为[]12 3412340 10011102 3600101110 6 3 2b b b b a a P a a ????? ? ??=? ????????? ,求该信道的信道容量,及其最佳输入分布。 9.设离散无记忆信道的转移概率矩阵为??? ? ? ??--=εεεε 1010001 Q ,求出信道容量及其达到信道容量的最佳输入概率分布。并求当210和=ε时的信道容量。

编译原理试题汇总

一、选择题(每个选择题 2 分,共 20 分) 1 .文法 G 产生的⑴ 的全体是该文法描述的语言。 A .句型 B. 终结符集 C. 非终结符集 D. 句子 2 .若文法 G 定义的语言是无限集,则文法必然是⑵ : A .递归的 B 前后文无关的 C 二义性的 D 无二义性的 3 . Chomsky 定义的四种形式语言文法中, 0 型文法又称为⑶ 文法; 1 型文法又称为⑷ 文法; 2 型语言可由⑸ 识别。 A .短语结构文法 B 前后文无关文法 C 前后文有关文法 D 正规文法 E 图灵机 F 有限自动机 G 下推自动机 4 .一个文法所描述的语言是⑹ ;描述一个语言的文法是⑺ 。 A .唯一的 B 不唯一的 C 可能唯一,好可能不唯一 5 .数组的内情向量中肯定不含有数组的⑻ 的信息 A.维数 B.类型 C.维上下界 D.各维的界差 6 .在下述的编译方法中,自底向上的方法有⑼ ,自顶向下的分析方法有⑽ 。 ①简单优先分析②算符优先分析③递归下降分析④预测分析技术⑤LR(K)分析 ⑥ SLR(k)分析⑦ LL(k)分析⑧LALR(K)分析 A.③④⑦ B. ③④⑧ C.①②⑧ D.③④⑤⑥⑦ E.①②⑤⑥⑦ F. ①②⑤⑥⑧ 二、简答题(每小题 5 分,共 20 分) 1 . LL ( 1 )分析法对文法有哪些要求? 2 .常见的存储分配策略有几种?它们都适合于什么性质的语言? 3 .常见循环优化都有哪些项目? 4 .什么是活动记录?它主要由哪些内容构成? 五、( 12 分)已给文法 G[S] :S → SaP | Sf | P P → qbP | q 将 G[S] 改造成 LL ( 1 )文法,并给出 LL ( 1 )分析表。 七、( 8 分)将下面的条件语句表示成逆波兰式和四元式序列: if a>b then x:=a+b*c else x:=b-a; 八、( 8 分)给定基本块: A:=3*5 B:=E+F C:=A+12 D:=E+F A:=D+12 C:=C+1 E:=E+F 假定出基本块后,只有 A 、 C 、 E 是活跃的,给出用 DAG 图完成优化后的代码序列。参考答案: 一、⑴ D ⑵ A ⑶ A ⑷ C ⑸ G. ⑹ A ⑺ B ⑻ A ⑼ F ⑽ A 二、 1 .对于 G 中的每个产生式A →γ 1 | γ 2 | … | γ m ,其各候选式均应满足:(1)不同的候选式不能推出以同一终结符号打头的符号串,即 FIRST( γ i ) ∩ FIRST( γ j )= φ(1 ≤ i ,j ≤ m ;i ≠ j )

信息论与编码理论课后习题答案高等教育出版社

信息论与编码理论习题解 第二章-信息量和熵 解: 平均每个符号长为:154 4.0312.032= ?+?秒 每个符号的熵为9183.03log 3 1 23log 32=?+?比特/符号 所以信息速率为444.34 15 9183.0=?比特/秒 解: 同步信号均相同不含信息,其余认为等概, 每个码字的信息量为 3*2=6 比特; 所以信息速率为600010006=?比特/秒 解:(a)一对骰子总点数为7的概率是 36 6 所以得到的信息量为 585.2)366(log 2= 比特 (b) 一对骰子总点数为12的概率是36 1 所以得到的信息量为 17.536 1 log 2= 比特 解: (a)任一特定排列的概率为 ! 521 ,所以给出的信息量为 58.225! 521 log 2 =- 比特 (b) 从中任取13张牌,所给出的点数都不相同的概率为 1352 13 13 521344!13C A =? 所以得到的信息量为 21.134 log 1313 52 2=C 比特. 解:易证每次出现i 点的概率为 21 i ,所以

比特比特比特比特比特比特比特398.221 log 21)(807.1)6(070.2)5(392.2)4(807.2)3(392.3)2(392.4)1(6,5,4,3,2,1,21 log )(26 12=-==============-==∑ =i i X H x I x I x I x I x I x I i i i x I i 解: 可能有的排列总数为 27720! 5!4!3! 12= 没有两棵梧桐树相邻的排列数可如下图求得, Y X Y X Y X Y X Y X Y X Y X Y 图中X 表示白杨或白桦,它有???? ??37种排法,Y 表示梧桐树可以栽 种的位置,它有???? ??58种排法,所以共有???? ??58*???? ??37=1960种排法保证没有 两棵梧桐树相邻,因此若告诉你没有两棵梧桐树相邻时,得到关于树排列的信息为1960log 27720log 22-= 比特 解: X=0表示未录取,X=1表示录取; Y=0表示本市,Y=1表示外地; Z=0表示学过英语,Z=1表示未学过英语,由此得

《信息论与编码技术》复习题3-4

一、填空题(共20分,每空2分) 1. 信息的基本概念在于它的 。 2. 一个随机事件的 定义为其出现概率对数的负值。 3. 按树图法构成的码一定满足 的定义。 4. 称为香农第二极限定理。 5. 纠错码的检、纠错能力是指 。 6. 信息率失真函数R (D )是关于D 的严格单调 函数。 7. 如果转移概率矩阵P 的每一行 ,称该矩阵是输入对称的。 8. 加密编码的主要目的是 。 9. 若最小码距为d min 的码同时能检测e d 个错误、纠正e c 个错误,则三个量之间的关系为 。 10. 稳定的马尔可夫信源必须有不可约性和 。 二、选择题(共10分,每题2分) 1. 给定x i 条件下,随机事件y j 所包含的不确定度和条件自信息量I (y j |x i ), (a )数量上不等,单位不同;(b )数量上不等,单位相同; (c )数量上相等,单位不同;(d )数量上相等,单位相同。 2. 下面哪一项不属于熵的性质: (a )非负性;(b )完备性;(c )对称性;(d )确定性。 3. 下面哪一项不是增加信道容量的途径: (a )减小信道噪声功率;(b )增大信号功率;(c )增加码长;(d )增加带宽。 4. 香农编码方法是根据 推导出来的。 (a )香农第一极限定理;(b )香农第二极限定理; (c )香农第三极限定理;(d )香农第四极限定理。 5. 下面哪一项不属于最简单的通信系统模型: (a )信源;(b )加密;(c )信道;(d )信宿。 三、名词解释(共10分,每题5分) 1. 唯一可译码。 2. 最小码距。 四、简答题(共20分,每10分) 1. 利用公式介绍无条件熵、条件熵、联合熵和平均互信息量之间的关系。 2. 简单介绍霍夫曼编码的步骤。 五、计算题(共40分)(log 2(3)=1.585,log 2(5)=2.322) 1. 某信源含有三个消息,概率分别为p (0)=0.2,p (1)=0.3,p (2)=0.5,失真矩阵为??????????=102230124D 。求D max 、D min 和R (D max )。(10分) 2. 设对称离散信道矩阵为?? ????=3/13/16/16/16/16/13/13/1P ,求信道容量C 。(10分) 3. 有一稳态马尔可夫信源,已知转移概率为p(S 1/S 1)=2/3,p(S 1/S 2)=1。求: (1)画出状态转移图和状态转移概率矩阵; (2)求出各状态的稳态概率; (3)求出信源的极限熵。(20分)

相关文档
最新文档