搜档网
当前位置:搜档网 › 信息论与编码陈运主编答案完整版

信息论与编码陈运主编答案完整版

信息论与编码课后习题答案

1. 有一个马尔可夫信源,已知p(x 1|x 1)=2/3,p(x 2|x 1)=1/3,p(x 1|x 2)=1,p(x 2|x 2)=0,试画出该信源的香农线图,并求出信源熵。 解:该信源的香农线图为: 1/3 ○ ○ 2/3 (x 1) 1 (x 2) 在计算信源熵之前,先用转移概率求稳定状态下二个状态x 1和 x 2 的概率)(1x p 和)(2x p 立方程:)()()(1111x p x x p x p =+)()(221x p x x p =)()(2132x p x p + )()()(1122x p x x p x p =+)()(222x p x x p =)(0)(2131x p x p + )()(21x p x p +=1 得4 3 1)(=x p 4 12)(=x p 马尔可夫信源熵H = ∑∑- I J i j i j i x x p x x p x p )(log )()( 得 H=符号 2.设有一个无记忆信源发出符号A 和B ,已知4 3 41)(.)(= =B p A p 。求: ①计算该信源熵; ②设该信源改为发出二重符号序列消息的信源,采用费诺编码方法,求其平均信息传输速率; ③又设该信源改为发三重序列消息的信源,采用霍夫曼编码方法,求其平均信息传输速率。 解:①∑- =X i i x p x p X H )(log )()( = bit/符号 ②发出二重符号序列消息的信源,发出四种消息的概率分别为 1614141)(=?=AA p 1634341 )(=?=AB p 1634143)(=?=BA p 1694343)(=?=BB p 用费诺编码方法 代码组 b i BB 0 1 BA 10 2 AB 110 3

《信息论与编码》课后习题答案

《信息论与编码》课后习题答案 第二章 2.1一个马尔可夫信源有3个符号{}1,23,u u u ,转移概率为:()11|1/2p u u =, ()21|1/2p u u =,()31|0p u u =,()12|1/3p u u =,()22|0p u u =,()32|2/3p u u =, ()13|1/3p u u =,()23|2/3p u u =,()33|0p u u =,画出状态图并求出各符号稳态概率。 解:状态图如下 状态转移矩阵为: 1/21/2 01/302/31/32/30p ?? ?= ? ??? 设状态u 1,u 2,u 3稳定后的概率分别为W 1,W 2、W 3 由1231WP W W W W =??++=?得1231132231231 112331223231 W W W W W W W W W W W W ?++=???+=???=???++=?计算可得1231025925625W W W ?=??? =?? ?=?? 2.2 由符号集{0,1}组成的二阶马尔可夫链,其转移概率为:(0|00)p =0.8,(0|11)p =0.2, (1|00)p =0.2,(1|11)p =0.8,(0|01)p =0.5,(0|10)p =0.5,(1|01)p =0.5,(1|10)p =0.5。 画出状态图,并计算各状态的稳态概率。 解:(0|00)(00|00)0.8p p == (0|01)(10|01)0.5p p == (0|11)(10|11)0.2p p == (0|10)(00|10)0.5p p == (1|00)(01|00)0.2p p == (1|01)(11|01)0.5p p == (1|11)(11|11)0.8p p == (1|10)(01|10)0.5p p ==

信息论与编码(第二版)习题答案,陈运,主编

信息论与编码(第二版)习题答案,陈运,主编 篇一:信息论与编码复习资料重点陈运第二版 2.3 居住某地区的女孩子有25%是大学生,在女大学生中有75%是身高160厘米以上的,而女孩子中身高160厘米以上的占总数的一半。假如我们得知“身高160厘米以上的某女孩是大学生”的消息,问获得多少信息量?解:设随机变量X代表女孩子学历 X P(X) x1(是大学生) 0.25 x2(不是大学生) 0.75 设随机变量Y代表女孩子身高 Y P(Y) y1(身高 160cm) 0.5 y2(身高 160cm) 0.5 已知:在女大学生中有75%是身高160厘米以上的即:p(y1/x1)?0.75 bit 求:身高160厘米以上的某女孩是大学生的信息量即:I(x1/y1)??logp(x1/y1)??log p(x1)p(y1/x1) p(y1) ??log 0.25?0.75 0.5 ?1.415 bit 2.4 设离散无记忆信源? ??x1?0??? ?P(X)??3/8? X x2?1x3?21/4 1/4 x4?3? ?,其发出的信息1/8? 为(202120130213001203210110321010021032011223210),求 (1) 此消息的自信息量是多少? (2) 此消息中平均每符号携带的信息量是多少?解: (1) 此消息总共有14个0、13个1、12个2、6个3,因此此消息发出的概率是: ?3?p??? ?8? 14 ?1?????4? 25 ?1???? ?8? 6 此消息的信息量是:I??logp?87.811 bit (2) 此消息中平均每符号携带的信息量是:I/n?87.811/45?1.951 bit 2.5 从大量统计资料知道,男性中红绿色盲的发病率为7%,女性发病率为0.5%,如果你问一位男士:“你是否是色盲?”他的回答可能是“是”,可能是“否”,问这两个回答中各含多少信息量,平均每个回答中含有多少信息量?如果问一位女士,则中含有的平均自信息量是多少?解:男士:p(xY)?7% I(xY)??logp(xY)??log0.07?3.837 bitp(xN)?93% I(xN)??logp(xN)??log0.93?0.105 bit 2 H(X)???p(xi)logp(xi)??(0.07log0.07?0.93log0.93)?0.366 bit/symbol i 女士: 2 H(X)???p(xi)logp(xi)??(0.005log0.005?0.995log0.995)?0.045 bit/symbol i 2.7 同时掷出两个正常的骰子,也就是各面呈现的概率都为1/6,求:(1) “3和5同时出现”这事件的自信息;(2) “两个1同时出现”这事件的自信息; (3) 两个点数的各种组合(无序)对的熵和平均信息量; (4) 两个点数之和(即2, 3, ? , 12构成的子集)的熵; (5) 两个点数中至少有一个是1的自信息量。解:(1) p(xi)? 16?16?16?16?118 118 ?4.170 bit

信息论与编码课后习题答案

信息论与编码课后习题答案 第二章 2.3 同时掷出两个正常的骰子,也就是各面呈现的概率都为1/6,求: (1) “3和5同时出现”这事件的自信息; (2) “两个1同时出现”这事件的自信息; (3) 两个点数的各种组合(无序)对的熵和平均信息量; (4) 两个点数之和(即2, 3, … , 12构成的子集)的熵; (5) 两个点数中至少有一个是1的自信息量。 解: (1) bit x p x I x p i i i 170.418 1 log )(log )(18 1 61616161)(=-=-== ?+?= (2) bit x p x I x p i i i 170.536 1 log )(log )(36 1 6161)(=-=-== ?= (3) 两个点数的排列如下: 11 12 13 14 15 16 21 22 23 24 25 26 31 32 33 34 35 36 41 42 43 44 45 46 51 52 53 54 55 56 61 62 63 64 65 66 共有21种组合: 其中11,22,33,44,55,66的概率是36 16161=? 其他15个组合的概率是18 1 61612=? ? symbol bit x p x p X H i i i / 337.4181log 18115361log 3616)(log )()(=??? ?? ?+?-=-=∑

参考上面的两个点数的排列,可以得出两个点数求和的概率分布如下: symbol bit x p x p X H X P X i i i / 274.3 61log 61365log 365291log 912121log 1212181log 1812361log 36 12 ) (log )()(36112181111211091936586173656915121418133612)(=? ?? ?? +?+?+?+?+?-=-=??????????=? ?????∑(5) bit x p x I x p i i i 710.136 11 log )(log )(3611116161)(=-=-== ??= 2.4 2.12 两个实验X 和Y ,X={x 1 x 2 x 3},Y={y 1 y 2 y 3},l 联合概率(),i j ij r x y r =为 1112132122233132 337/241/2401/241/41/2401/247/24r r r r r r r r r ???? ? ?= ? ? ? ????? (1) 如果有人告诉你X 和Y 的实验结果,你得到的平均信息量是多少? (2) 如果有人告诉你Y 的实验结果,你得到的平均信息量是多少? (3) 在已知Y 实验结果的情况下,告诉你X 的实验结果,你得到的平均信息量是多少?

信息论与编码理论课后答案

信息论与编码理论课后答案 【篇一:《信息论与编码》课后习题答案】 式、含义和效用三个方面的因素。 2、 1948年,美国数学家香农发表了题为“通信的数学理论”的长 篇论文,从而创立了信息论。 3、按照信息的性质,可以把信息分成语法信息、语义信息和语用 信息。 4、按照信息的地位,可以把信息分成客观信息和主观信息。 5、人们研究信息论的目的是为了高效、可靠、安全地交换和利用 各种各样的信息。 6、信息的是建立信息论的基础。 7、 8、是香农信息论最基本最重要的概念。 9、事物的不确定度是用时间统计发生概率的对数来描述的。 10、单符号离散信源一般用随机变量描述,而多符号离散信源一般 用随机矢量描述。 11、一个随机事件发生某一结果后所带来的信息量称为自信息量, 定义为其发生概率对数的负值。 12、自信息量的单位一般有比特、奈特和哈特。 13、必然事件的自信息是。 14、不可能事件的自信息量是 15、两个相互独立的随机变量的联合自信息量等于两个自信息量之和。 16、数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量趋于变小。 17、离散平稳无记忆信源x的n次扩展信源的熵等于离散信源x的 熵的。 limh(xn/x1x2?xn?1)h?n???18、离散平稳有记忆信源的极限熵,。 19、对于n元m阶马尔可夫信源,其状态空间共有m个不同的状态。 20、一维连续随即变量x在[a,b] 。 1log22?ep 21、平均功率为p的高斯分布的连续信源,其信源熵,hc(x)=2。

22、对于限峰值功率的n维连续信源,当概率密度均匀分布时连续信源熵具有最大值。 23、对于限平均功率的一维连续信源,当概率密度 24、对于均值为0,平均功率受限的连续信源,信源的冗余度决定于平均功率的限定值p和信源的熵功率p 25、若一离散无记忆信源的信源熵h(x)等于2.5,对信源进行等长的无失真二进制编码,则编码长度至少为。 27 28、同时掷两个正常的骰子,各面呈现的概率都为1/6,则“3和5同时出现”这件事的自信息量是 ?mn?ki?1 1?mp(x)?em29、若一维随即变量x的取值区间是[0,∞],其概率密度函数为,其中:x?0,m是x的数学 2期望,则x的信源熵c。 30、一副充分洗乱的扑克牌(52张),从中任意抽取1张,然后放回,若把这一过程看作离散无记忆信源,则其信 2源熵为。 31信道。 32、信道的输出仅与信道当前输入有关,而与过去输入无关的信道称为 33、具有一一对应关系的无噪信道的信道容量。 34、强对称信道的信道容量。 35、对称信道的信道容量。 36、对于离散无记忆信道和信源的n次扩展,其信道容量cn= 。xh(x)?logmelog52 37、对于n个对立并联信道,其信道容量 cn = 。 38、多用户信道的信道容量用多维空间的一个区域的界限来表示。 39、多用户信道可以分成几种最基本的类型:多址接入信道、广播信道和相关信源信道。 40、广播信道是只有一个输入端和多个输出端的信道。 41、当信道的噪声对输入的干扰作用表现为噪声和输入的线性叠加时,此信道称为加性连续信道。 ?ck?1nk p1log2(1?x)2pn。 42、高斯加性信道的信道容量c= 43、信道编码定理是一个理想编码的存在性定理,即:信道无失真传递信息的条件是信息率小于信道容量。 ?1/21/20??0?01??代表的信道的信道容量。 44、信道矩阵 ?10??10????01??代表的信道的信道容量。 45、信道矩阵?

信息论与编码_杭州电子科技大学中国大学mooc课后章节答案期末考试题库2023年

信息论与编码_杭州电子科技大学中国大学mooc课后章节答案期末考试题库2023年 1.【图片】该信道的信道容量是()bit/符号。 参考答案: log4-H(1/3,1/3,1/6,1/6); 2.对于离散无记忆平稳信源的N次扩展信源,其熵为扩展前信源熵的N倍。 参考答案: 正确 3.对应对称的DMC信道,当输入呈什么分布时,信道到达信道容量。 参考答案: 等概率分布 4.在X-Y-Z的信息传递中,信息不增性原理表示为I(X;Z)>=I(Y;Z)。 参考答案: 错误 5.信道容量随信源输出的概率分布的变化而变化。 参考答案: 错误 6.已知8个码组为(000000)、(001110)、(010101)、(011011)、 (100011)、(101101)、(110110)、(111000),若只用于检错,可检测出()位错码。

参考答案: 2 7.突发差错始终以相等的概率独立发生于各码字、各码元、各比特。 参考答案: 错误 8.(7,3)码的监督矩阵有3行,生成矩阵有4行。 参考答案: 错误 9.根据香农容量公式可知,通过增大带宽可以无限的提高信道容量,只是提高 的速度会变慢 参考答案: 错误 10.二进制对称信道中,当信道转移概率中正确、错误的概率相等时,此信道不 能传递信息。 参考答案: 正确 11.某信道输入熵为H(X),输出熵为H(Y),若信道为无噪有损信道,其容量为 H(X)。 参考答案: 正确

12.连续信源限峰值条件下正态分布具有最大熵。 参考答案: 错误 13.关于信息熵在通信系统中的描述,以下错误的是()。 参考答案: 条件熵H(X|Y)可以看作是信道上的干扰和噪声使接收端获得Y之后对X还有的平均不确定度,又称为噪声熵。 14.必然事件和不可能事件的自信息量都是0 。 参考答案: 错误 15.通常所说的符号差错概率(误码元率)是指信号差错概率,而误比特率是指 信息差错概率。 参考答案: 正确 16.当离散信源输出服从()分布时,其熵为最大 参考答案: 等概率分布 17.信源变长编码的核心问题是寻找紧致码(或最佳码),霍夫曼编码方法构造 的是最佳码。

《信息论与编码》习题解答-第三章

第三章 信道容量 答案 3.1 设二元对称信道的传递矩阵为?? ? ???3/23/13/13/2 (1) 若P(0) = 3/4, P(1) = 1/4,求H(X), H(X/Y), H(Y/X)和I(X;Y); (2) 求该信道的信道容量及其达到信道容量时的输入概率分布; 解: 1) symbol bit Y X H X H Y X I symbol bit X Y H Y H X H Y X H X Y H Y H Y X H X H Y X I symbol bit y p Y H x y p x p x y p x p y x p y x p y p x y p x p x y p x p y x p y x p y p symbol bit x y p x y p x p X Y H symbol bit x p X H j j i j i j i j i i i / 062.0749.0811.0)/()();(/ 749.0918.0980.0811.0)/()()()/() /()()/()();(/ 980.0)4167.0log 4167.05833.0log 5833.0()()(4167 .03 2 413143)/()()/()()()()(5833.031 413243)/()()/()()()()(/ 918.0 10 log )3 2 lg 324131lg 314131lg 314332lg 3243( ) /(log )/()()/(/ 811.0)41 log 4143log 43()()(222221212221221211112111222=-==-==+-=+-=-=-==?+?-=-==?+?=+=+==?+?= +=+==??+?+?+?-=-==?+?-=-=∑∑∑∑ 2) 2 1 )(/ 082.010log )3 2 lg 3231lg 31(2log log );(max 222= =?++=-==i mi x p symbol bit H m Y X I C 3.2 解: (1)αα-==1)(,)(21x p x p ??????=4/14/12/102/12/1P ,?? ? ???---=4/)1(4/)1(2/)1(02/12/1)(αααααj i y x P 4/)1()(,4/14/)(,2/1)(321αα-=+==y p y p y p 接收端的不确定度: ))1(41 log()1(41)4141log()4141()2log(21)(αααα---++-=Y H )1log(4 1)1log(4123αααα---++-=

信息论与编码习题答案

信息论与编码习题答案 信息论与编码习题答案 信息论与编码是一门研究信息传输、存储和处理的学科,它的基本原理和方法 被广泛应用于通信、数据压缩、密码学等领域。在学习信息论与编码的过程中,习题是不可或缺的一部分。下面将为大家提供一些信息论与编码习题的答案, 希望能对大家的学习有所帮助。 习题一:请解释信息熵的概念。 答案:信息熵是信息论中的一个重要概念,用来衡量一个随机变量的不确定性。对于一个离散型随机变量X,其信息熵H(X)定义为: H(X) = -Σ P(x)log2P(x) 其中,P(x)表示随机变量X取值为x的概率。信息熵的单位是比特(bit),表示 信息的平均不确定性。信息熵越大,表示随机变量的不确定性越高,反之亦然。习题二:请计算以下离散型随机变量的信息熵。 1. 对于一个均匀分布的随机变量,其取值范围为{1, 2, 3, 4},请计算其信息熵。 答案:由于均匀分布,每个取值的概率相等,即P(1) = P(2) = P(3) = P(4) = 1/4。代入信息熵的计算公式可得: H(X) = - (1/4)log2(1/4) - (1/4)log2(1/4) - (1/4)log2(1/4) - (1/4)log2(1/4) = - (1/4)(-2) - (1/4)(-2) - (1/4)(-2) - (1/4)(-2) = 2 2. 对于一个二值随机变量,其取值为{0, 1},且P(0) = 0.8,P(1) = 0.2,请计算 其信息熵。 答案:代入信息熵的计算公式可得:

H(X) = - 0.8log2(0.8) - 0.2log2(0.2) ≈ 0.7219 习题三:请解释信道容量的概念。 答案:信道容量是指在给定的信道条件下,能够传输的最大信息速率。在信息论中,信道容量是衡量信道传输效率的重要指标。对于一个离散无记忆信道,其信道容量C定义为: C = max{I(X;Y)} 其中,X表示输入信号集合,Y表示输出信号集合,I(X;Y)表示输入信号X和输出信号Y之间的互信息。信道容量的单位是比特/秒(bps)。 习题四:请计算以下信道的容量。 1. 对于一个二进制对称信道(Binary Symmetric Channel,BSC),发送方发送0的概率为0.7,发送方发送1的概率为0.3,且接收方接收到正确的概率为0.9,请计算该信道的容量。 答案:由于二进制对称信道的输入和输出是二值的,可以使用二进制对称信道容量公式进行计算: C = 1 - H(p) 其中,p为接收方接收到错误的概率,即p = 1 - 0.9 = 0.1。代入公式可得: C = 1 - H(0.1) ≈ 0.469 2. 对于一个高斯信道,信号传输的功率为P,噪声功率为N,请计算该信道的容量。 答案:高斯信道的容量由香农公式给出:

信息论与编码第六章习题及参考答案

6.1某卷积码的框图如图6.7所示,假设初始状态为全零,输入序列为{1001101},试写出输出序列,并计算出码率。 图6.7 (2,1,2)卷积码 解:)2()(1-⊕=n X n X C )2()1()(2-⊕-⊕=n X n X n X C 输出序列为(11111111001010),码率R=1/2 6.2 某分组码输出码字集合为{0000, 1001,0110,1010,0101}, 试写出各个码字的重量,并且计算最小汉明距离。 解:码字重量分布为(0,2,2,2,2),通过逐个比较码字得到码字之间的汉明距离并取最小汉明距离d0=2. 6.3某离散无记忆信道的概率转移矩阵为 1/21/31/61/31/61/21/61/21/3⎡⎤ ⎢⎥=⎢⎥ ⎢⎥⎣⎦ P 假设信道输入的概率空间为 12()1/21/41/4X x x x P x ⎡⎤⎡⎤=⎢⎥⎢⎥⎣⎦⎣⎦ 分别使用最小错误概率规则和最大似然译码规则来确定译码规则,并且计算对应的平均错误 概率。 解:后验概率∑== 3 1 )|()()(i i j i j a b p a p b p

249 614131412121)(1= ⨯+⨯+⨯= b p 248 214161413121)(2= ⨯+⨯+⨯= b p 24 7 314121416121)(3= ⨯+⨯+⨯= b p 后验概率) () |()()|(j i j i j i b p a b p a p b a p = ,具体结果如表如下 ⎥⎥⎥⎥⎥⎥⎦ ⎤⎢⎢⎢⎢⎢⎢⎣⎡=727 37 2838121919232P Y |X 根据最小概率译码规则,在上述后验概率中寻找到最大概率对应的输入ai 作为译码估计值,具体如下: b1→a1 b2→a1 b3→a2 如果发送符号为a1,接受符号为b2,b3,就会出现译码错误;如果发送为b2,接受符号为b2,b3,就会出现译码错误;如果发送符号为a3,接受符号为,b1,b3,就会出现译码错误;因此,译码错误计算如下: 24 11)3161(41)2161(41)6131(21P E1=+++++= 最大似然译码则是根据前向概率的列元素大小直接译码,具体译码规则为 b1→a1 b2→a3 b3→a2 同理可以计算出译码错误概率 2 1)3161(41)6131(41)6131(21P E2=+++++= 可以看出E1E2P P >。 6.4某信道的输入、输出的符号集合分别为12{,}a a 和1234{,,,}b b b b ,而且信道转移矩阵为 0.70.10.10.10.10.10.10.7⎡⎤ =⎢⎥ ⎣⎦ P 信道的输入概率分别为1()0.4p a =,2()0.6p a =,分别采用最大后验译码规则和最大似然译码规则概率进行译码,选择译码方案进行译码,并计算相应的译码平均错误概率。

信息论与编码第一章答案

第一章信息论与基础 1.1信息与消息的概念有何区别? 信息存在于任何事物之中,有物质的地方就有信息,信息本身是看不见、摸不着的,它必须依附于一定的物质形式。一切物质都有可能成为信息的载体,信息充满着整个物质世界。信息是物质和能量在空间和时间中分布的不均匀程度。信息是表征事物的状态和运动形式。 在通信系统中其传输的形式是消息。但消息传递过程的一个最基本、最普遍却又十分引人注意的特点是:收信者在收到消息以前是不知道具体内容的;在收到消息之前,收信者无法判断发送者将发来描述何种事物运动状态的具体消息;再者,即使收到消息,由于信道干扰的存在,也不能断定得到的消息是否正确和可靠。 在通信系统中形式上传输的是消息,但实质上传输的是信息。消息只是表达信息的工具,载荷信息的载体。显然在通信中被利用的(亦即携带信息的)实际客体是不重要的,而重要的是信息。 信息载荷在消息之中,同一信息可以由不同形式的消息来载荷;同一个消息可能包含非常丰富的信息,也可能只包含很少的信息。可见,信息与消息既有区别又有联系的。 1.2 简述信息传输系统五个组成部分的作用。 信源:产生消息和消息序列的源。消息是随机发生的,也就是说在未收到这些消息之前不可能确切地知道它们的内容。信源研究主要内容是消息的统计特性和信源产生信息的速率。 信宿:信息传送过程中的接受者,亦即接受消息的人和物。 编码器:将信源发出的消息变换成适于信道传送的信号的设备。它包含下述三个部分:(1)信源编码器:在一定的准则下,信源编码器对信源输出的消息进行适当的变换和处理,其目的在于提高信息传输的效率。(2)纠错编码器:纠错编码器是对信源编码器的输出进行变换,用以提高对于信道干扰的抗击能力,也就是说提高信息传输的可靠性。(3)调制器:调制器是将纠错编码器的输出变换适合于信道传输要求的信号形式。纠错编码器和调制器的组合又称为信道编码器。 信道:把载荷消息的信号从发射端传到接受端的媒质或通道,包括收发设备在内的物理设施。信道除了传送信号外,还存储信号的作用。 译码器:编码的逆变换。它要从受干扰的信号中最大限度地提取出有关信源输出消息的信息,并尽可能地复现信源的输出。 1.3 同时掷一对骰子,要得知面朝上点数之和,描述这一信源的数学 模型。 解:设该信源符号集合为X

信息论与编码第五章习题参考答案

5.1某离散无记忆信源的概率空间为 采用香农码和费诺码对该信源进行二进制变长编码,写出编码输出码字,并且求出平均码长和编码效率。 解:计算相应的自信息量 1)()(11=-=a lbp a I 比特 2)()(22=-=a lbp a I 比特 3)()(313=-=a lbp a I 比特 4)()(44=-=a lbp a I 比特 5)()(55=-=a lbp a I 比特 6)()(66=-=a lbp a I 比特 7)()(77=-= a lbp a I 比特 7)()(77=-=a lbp a I 比特 根据香农码编码方法确定码长 1)()(+<≤i i i a I l a I 平均码长 984375 .164/6317128/17128/1664/1532/1416/138/124/112/1L 1=+=⨯+⨯+⨯+⨯+⨯+⨯+⨯+⨯=由于每个符号的码长等于自信息量,所以编码效率为1。 费罗马编码过程

5.2某离散无记忆信源的概率空间为 使用费罗码对该信源的扩展信源进行二进制变长编码, (1) 扩展信源长度,写出编码码字,计算平均码长和编码效率。 (2) 扩展信源长度,写出编码码字,计算平均码长和编码效率。 (3) 扩展信源长度,写出编码码字,计算平均码长和编码效率,并且与(1)的结果 进行比较。 解:信息熵811.025.025.075.075.0)(=--=lb lb X H 比特/符号 (1) 平均码长11=L 比特/符号 编码效率为 %1.81X) (H 1 1== L η (2) 平均码长为 84375.0)316 1316321631169( 212=⨯+⨯+⨯+⨯=L 比特/符号 编码效率% 9684375 .0811 .0X) (H 2 2== = L η

信息论与编码第五章答案

5.1 设信源1 234567()0.20.190.180.170.150.10.01X a a a a a a a p X ⎡⎤⎧⎫=⎨⎬⎢⎥ ⎣⎦⎩⎭ (1) 求信源熵H(X); (2) 编二进制香农码; (3) 计算平均码长和编码效率. 解: (1) 7 21222222()()log () 0.2log 0.20.19log 0.19 0.18log 0.180.17log 0.170.15log 0.150.1log 0.10.01log 0.012.609/i i i H X p a p a bit symbol ==-=-⨯-⨯-⨯-⨯-⨯-⨯-⨯=∑ (2) (3) 7 1 ()0.230.1930.1830.1730.153 0.140.0173.141 ()()/ 2.609 3.14183.1% i i i K k p x H X H X K R η===⨯+⨯+⨯+⨯+⨯+⨯+⨯====÷=∑ 5.2 对习题5.1的信源编二进制费诺码,计算编码效率. 解:

5.3 对信源编二进制和三进制 哈夫曼码,计算各自的平均码长和编码效率. 解: 二进制哈夫曼码: x i p(x i)编码码字k i s61 s50.610 s40.391 s30.350 s20.261 x10.20102 x20.191112 x30.1800003 x40.1710013 x50.1500103 s10.111 x60.1001104 x70.01101114 三进制哈夫曼码: x i p(x i)编码码字k i s31 s20.540 s10.261 x10.2221 x20.190002 x30.181012 x40.172022

信息论与编码第二章答案

2-1、一阶马尔可夫链信源有3个符号(f úh ào),转移(zhu ǎny í)概率 为: , , , ,, , , , 。 画出状态图并求出各符号(f úh ào)稳态概率。 解:由题可得状态概率(g àil ǜ)矩阵为: 状态(zhu àngt ài)转换图为: 令各状态的稳态分布概率为,,,则: 1W = 1W + 2W +133W , 2W =1 21W + 3W , 3W = 2 3 2W 且:1W +2W +3W =1 稳态分布概率为: 1W =,2W = ,3W = 2-2.由符号集{0,1}组成的二阶马尔可夫链,其转移概率为: P(0|00)=0.8,P(0|11)=0.2,P(1|00)=0.2,P(1|11)=0.8,P(0|01)=0.5,p(0|10)=0.5,p(1|01)=0.5,p(1|10)=0.5画出状态图,并计算各符号稳态概率。 解:状态转移概率矩阵为: 令各状态的稳态分布概率为 、 、 、 ,利用(2-1-17)可得方程组。

且; 解方程组得:即: 2-3、同时掷两个正常(zhèngcháng)的骰子,也就是各面呈现的概率都是,求: (1)、“3和5同时(tóngshí)出现”事件(shìjiàn)的自信息量; (2)、“两个1同时(tóngshí)出现”事件(shìjiàn)的自信息量; (3)、两个点数的各种组合的熵或平均信息量; (4)、两个点数之和的熵; (5)、两个点数中至少有一个是1的自信息量。 解:(1)3和5同时出现的概率为: (2)两个1同时出现的概率为: (3)两个点数的各种组合(无序对)为: (1,1),(1,2),(1,3),(1,4),(1,5),(1,6) (2,2),(2,3),(2,4),(2,5),(2,6) (3,3), (3,4),(3,5),(3,6) (4,4),(4,5),(4,6) (5,5),(5,6) (6,6)

信息论与编码试卷及答案

一、(11’)填空题 (1)1948年,美国数学家香农发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。 (2)必然事件的自信息是 0 。 (3)离散平稳无记忆信源X的N次扩展信源的熵等于离散信源X的熵的 N倍。 (4)对于离散无记忆信源,当信源熵有最大值时,满足条件为__信源符号等概分布_。 (5)若一离散无记忆信源的信源熵H(X)等于,对信源进行等长的无失真二进制编码,则编码长度至少为 3 。 (6)对于香农编码、费诺编码和霍夫曼编码,编码方法惟一的是香农编码。(7)已知某线性分组码的最小汉明距离为3,那么这组码最多能检测出_2_______个码元错误,最多能纠正___1__个码元错误。 (8)设有一离散无记忆平稳信道,其信道容量为C,只要待传送的信息传输率R__小于___C(大于、小于或者等于),则存在一种编码,当输入序列长度n足够大,使译码错误概率任意小。(9)平均错误概率不仅与信道本身的统计特性有关,还与___译码规则____________和___编码方法___有关 三、(5)居住在某地区的女孩中有25%是大学生,在女大学生中有75%是身高米以上的,而女孩中身高米以上的占总数的一半。 假如我们得知“身高1.6米以上的某女孩是大学生”的消息,问获得多少信息量? 解:设A表示“大学生”这一事件,B表示“身高以上”这一事件,则 P(A)= p(B)= p(B|A)= (2分) 故 p(A|B)=p(AB)/p(B)=p(A)p(B|A)/p(B)=*= (2分) I(A|B)== (1分) 四、(5)证明:平均互信息量同信息熵之间满足

I(X;Y)=H(X)+H(Y)-H(XY) 证明: ()()() () ()()()() ()() Y X H X H y x p y x p x p y x p x p y x p y x p Y X I X X Y j i j i Y i j i X Y i j i j i -=⎥⎦⎤ ⎢⎣⎡---==∑∑∑∑∑∑log log log ; (2分) 同理 ()()() X Y H Y H Y X I -=; (1分) 则 () ()()Y X I Y H X Y H ;-= 因为 ()()() X Y H X H XY H += (1分) 故 ()()()()Y X I Y H X H XY H ;-+= 即 ()()()()XY H Y H X H Y X I -+=; (1分) 五、(18’).黑白气象传真图的消息只有黑色和白色两种,求: 1) 黑色出现的概率为,白色出现的概率为。给出这个只有两个符号的信源X 的数学模型。假设图上黑白消息出现前后没有关联,求熵()X H ; 2) 假设黑白消息出现前后有关联,其依赖关系为 ,,,,求其熵()X H ∞。 3)分别求上述两种信源的冗余度,比较它们的大小并说明其物理意义。

信息论与编码理论习题答案全解

信息论与编码理论习题答案全解

第二章 信息量和熵 2.2 八元编码系统,码长为3,第一个符号用于同步,每秒1000个码字,求它的 信息速率。 解:同步信息均相同,不含信息,因此 每个码字的信息量为 2⨯8log =2⨯3=6 bit 因此,信息速率为 6⨯1000=6000 bit/s 2.3 掷一对无偏骰子,告诉你得到的总的点数为:(a) 7; (b) 12。问各得到多少 信息量。 解:(1) 可能的组合为 {1,6},{2,5},{3,4},{4,3},{5,2},{6,1} )(a p =366=6 1 得到的信息量 =) (1 log a p =6log =2.585 bit (2) 可能的唯一,为 {6,6} )(b p =361 得到的信息量=) (1 log b p =36log =5.17 bit 2.4 经过充分洗牌后的一副扑克(52张),问: (a) 任何一种特定的排列所给出的信息量是多少? (b) 若从中抽取13张牌,所给出的点数都不相同时得到多少信息量? 解:(a) )(a p =! 521 信息量=) (1 log a p =!52log =225.58 bit (b) ⎩⎨⎧⋯⋯⋯⋯花色任选 种点数任意排列 13413!13 )(b p =13 52134!13A ⨯=1352 13 4C 信息量=1313 524log log -C =13.208 bit

即)0;(1u I ,)00;(1u I ,)000;(1u I ,)0000;(1u I )0(p =4)1(81⨯-p +481⨯p =2 1 )0;(1u I =) 0()|0(log 1p u p =2 11log p -=1+)1log(p - bit )00(p =]2)1(4)1(2[8122p p p p +-+-=4 1 )00;(1u I =)00()|00(log 1p u p =4/1)1(log 2 p -=)]1log(1[2p -+ bit )000(p =])1(3)1(3)1[(813223p p p p p p +-+-+-=8 1 )000;(1u I =3[1+)1log(p -] bit )0000(p =])1(6)1[(8 1 4224p p p p +-+- )0000;(1u I =4 2244 )1(6)1()1(8log p p p p p +-+-- bit 2.12 计算习题2.9中);(Z Y I 、);(Z X I 、);,(Z Y X I 、)|;(X Z Y I 、)|;(Y Z X I 。 解:根据题2.9分析 )(Z H =2(216log 2161+3216log 2163+6216log 2166+10 216log 21610+ 15216log 21615+21216log 21621+25216log 21625+27 216 log 21627) =3.5993 bit );(Z Y I =)(Z H -)|(Y Z H =)(Z H -)(X H =1.0143 bit );(Z X I =)(Z H -)|(X Z H =)(Z H -)(Y H =0.3249 bit );,(Z Y X I =)(Z H -)|(XY Z H =)(Z H -)(X H =1.0143 bit

信息论与编码试题集与答案

一填空题(本题20分,每小题2分) 1、平均自信息为 表示信源的平均不确定度,也表示平均每个信源消息所提供的信息量。 平均互信息 表示从Y获得的关于每个X的平均信息量,也表示发X前后Y的平均不确定性减少的量,还表示通信前后整个系统不确定性减少的量。 2、最大离散熵定理为:离散无记忆信源,等概率分布时熵最大。 3、最大熵值为。 4、通信系统模型如下: 5、香农公式为为保证足够大的信道容量,可采用(1)用频带换信噪比;(2)用信噪比换频带。 6、只要,当N足够长时,一定存在一种无失真编码。 7、当R<C时,只要码长足够长,一定能找到一种编码方法和译码规则,使译码错误概率无穷小。 8、在认识论层次上研究信息的时候,必须同时考虑到形式、含义和效用三个方面的因素。 9、1948年,美国数学家香农发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。 按照信息的性质,可以把信息分成语法信息、语义信息和语用信息。

按照信息的地位,可以把信息分成 客观信息和主观信息 。 人们研究信息论的目的是为了 高效、可靠、安全 地交换和利用各种各样的信息。 信息的 可度量性 是建立信息论的基础。 统计度量 是信息度量最常用的方法。 熵 是香农信息论最基本最重要的概念。 事物的不确定度是用时间统计发生 概率的对数 来描述的。 10、单符号离散信源一般用随机变量描述,而多符号离散信源一般用 随机矢量 描述。 11、一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为 其发生概率对数的负值 。 12、自信息量的单位一般有 比特、奈特和哈特 。 13、必然事件的自信息是 0 。 14、不可能事件的自信息量是 ∞ 。 15、两个相互独立的随机变量的联合自信息量等于 两个自信息量之和 。 16、数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量 趋于变小 。 17、离散平稳无记忆信源X 的N 次扩展信源的熵等于离散信源X 的熵的 N 倍 。 18、离散平稳有记忆信源的极限熵,=∞H )/(lim 121-∞→N N N X X X X H 。 19、对于n 元m 阶马尔可夫信源,其状态空间共有 nm 个不同的状态。 20、一维连续随即变量X 在[a ,b]区间内均匀分布时,其信源熵为 log2(b-a ) 。 21、平均功率为P 的高斯分布的连续信源,其信源熵,Hc (X )=eP π2log 212。 22、对于限峰值功率的N 维连续信源,当概率密度 均匀分布 时连续信源熵具有最大值。 23、对于限平均功率的一维连续信源,当概率密度 高斯分布 时,信源熵有最大值。 24、对于均值为0,平均功率受限的连续信源,信源的冗余度决定于平均功率的限定值P 和信源的熵功

信息论与编码习题参考答案(全)

信息论与编码习题参考答案 第一章 单符号离散信源 1.1同时掷一对均匀的子,试求: (1)“2和6同时出现”这一事件的自信息量; (2)“两个5同时出现”这一事件的自信息量; (3)两个点数的各种组合的熵; (4)两个点数之和的熵; (5)“两个点数中至少有一个是1”的自信息量。 解: bit P a I N n P bit P a I N n P c c N 17.536log log )(361 )2(17.418log log )(362)1(36 662221111 616==-=∴====-=∴== =⨯==样本空间: (3)信源空间: bit x H 32.436log 36 62log 3615)(=⨯⨯+⨯⨯ =∴ bit x H 71.3636 log 366536log 3610 436 log 368336log 366236log 36436log 362)(=⨯⨯+⨯+⨯+⨯⨯= ∴++ (5) bit P a I N n P 17.111 36 log log )(3611333==-=∴==

1.2如有6行、8列的棋型方格,若有两个质点A 和B ,分别以等概落入任一方格,且它们的坐标分别为(Xa ,Ya ), (Xb ,Yb ),但A ,B 不能同时落入同一方格。 (1) 若仅有质点A ,求A 落入任一方格的平均信息量; (2) 若已知A 已落入,求B 落入的平均信息量; (3) 若A ,B 是可辨认的,求A ,B 落入的平均信息量。 解: bit a P a P a a P a I a P A i 58.548log )(log )()(H 48log )(log )(481 )(:)1(48 1 i i i i i ==-=∴=-=∴= ∑=落入任一格的概率Θ bit b P b P b b P b I b P A i 55.547log )(log )()(H 47 log )(log )(47 1 )(:B ,)2(48 1i i i i i ==-=∴=-=∴=∑=落入任一格的概率是落入任一格的情况下在已知Θbit AB P AB P AB H AB P AB I AB P AB i i i i i i i 14.11)4748log()(log )()() (log )(47 1 481)()3(47481 =⨯=-=-=∴⨯=∑⨯=是同时落入某两格的概率 1.3从大量统计资料知道,男性中红绿色盲的发病率为7%,女性发病率为0.5%.如果你问一位男士:“你是否是红绿色盲?”他的回答可能是:“是”,也可能“不是”。问这两个回答中各含有多少信息量?平均每个回答中各含有多少信息量?如果你问一位女士,则她的答案中含有多少平均信息量? 解: bit w P w P w P w P m m P m I w P w I bit m P m P m P m P m bit m P m I bit m P m I n n y y n n y y n n y y n n y y 0454.0log99.5%99.5%-log0.5%-0.5% )(log )()(log )()(H % 5.99log )(log )(%5.0log )(log )(36 6.0log93%93%-log7%-7% )(log )()(log )()(H 105.0%93log )(log )(84.3%7log )(log )(: =⨯⨯=⨯-⨯-=-=-=-=-==⨯⨯=⨯-⨯-==-=-==-=-=平均每个回答信息量::回答“不是”的信息量回答“是”的信息量:对于女: 平均每个回答信息量::回答“不是”的信息量回答“是”的信息量:对于男士

相关主题