搜档网
当前位置:搜档网 › 群论第一章‘作业’

群论第一章‘作业’

群论第一章‘作业’
群论第一章‘作业’

1. G 是实数对(a,b ),a ≠0的集合,在G 上定义乘法(a,b )?(c,d )=(ac,ad +b )。证明G 是群。

2. 证明所有的2维转动 (cos θsin θ?sin θcos θ),θ∈,0,2π) 构成群。

3. 证明:上三角矩阵 (1α01),α∈R 在矩阵乘法下构成群。

4. 在偶数阶群G 中,方程g 2=1总有偶数个解。

5. 设G 是一个半群。如果

i) G 中含有左单位元e ,即,?g ∈G,ea =a ,

ii) G 中每个元素a 都有左逆a ?1,使得a ?1a =e ,

试证G 是群。

6. 令G 是半群。如果对任意a,b ∈G ,方程xa =b 和方程ay =b 在G 内有解,则G 是群。

7. 设A,B 是群G 的两个子群。试证:AB ≤G 当且仅当 AB =BA 。

8. 如果R 是群G 对于子群A 的右陪集代表元系,则R ?1是群G 对于A 的左陪集代表元系。

9. 群G 的指数为2 的子群一定是G 的正规子群。

10. 证明群G 的中心C(G)是正规子群。

11. G 是实数对(a,b ),a ≠0的集合,在G 上定义乘法(a,b )?(c,d )=(ac,ad +b )。试证

K =*(1,b )|b ∈R +是G 的正规子群,且G K ??R ?。这里R 是实数集合,R ?是非零实数的乘法群。

12. 证明正实数乘法群和实数加法群同构。

13. N ?G 。证明映射

π:G →G N ?,π(g )=gN =g?

是同态映射,并求同态核ker π。

14. 试求群SU (3)={U|U ?U =1,det U =1;U jk ∈C,j,k =1,2,3.}的中心。

15. 设f:G →H 是群同态。证明:如果g ∈G 是有限阶元素,则f (g )的阶整除g 的阶。

16. 如图,正四面体有哪些对称轴?写出正四面体对称群T 中的所有元素,并按图中的顶点编号给出其置换表示。

17. 给出正三角形对称群D 3对于其3阶子群的左诱导表

示。

18. G =K ?H,N H =*(1K , )| ∈H +?H,N K =

*(k,1H )|k ∈K +?K ,证明(1)N H ?G ,(2)N K ?G ,(3)N K N H =G 。

19. 给出正方形对称群D 4的所有元素,并找出其所有的共轭等价类。 20. 在D 4群中,记所有的纯转动构成的子群为R ;绕某一个对角线(如BD )转1800为a ,子群*e,a +记做M 。证明D 4?R ?S M 。

21. 如图所示,玩具的两个圆盘可以各自绕中心旋转。求这个玩具的变换群,作它的置

换表示。说明是否可以变成下面的两种图样;如果可以,按什么步骤可以做到。 1 2 3 44

作业参考答案信息论

2.3 一副充分洗乱的牌(含52张),试问: (1)任一特定排列所给出的不确定性是多少? (2)随机抽取13张牌,13张牌的点数互不相同时的不确定性是多少? 解:(1)52张扑克牌可以按不同的顺序排列,所有可能的不同排列数就是全排列种数,为 526752528.06610P =!≈? 因为扑克牌充分洗乱,任一特定排列出现的概率相等,设事件A 为任一特定排列,则其发 生概率为 ()681 1.241052P A -=≈?! 可得,该排列发生所给出的信息量为 ()()22log log 52225.58I A P A =-=!≈ bit 67.91≈ dit (2)设事件B 为从中抽取13张牌,所给出的点数互不相同。 扑克牌52张中抽取13张,不考虑排列顺序,共有13 52C 种可能的组合。13张牌点数 互不相同意味着点数包括A ,2,…,K ,而每一种点数有4种不同的花色意味着每个点数可以取4中花色。所以13张牌中所有的点数都不相同的组合数为13 4。因为每种组合都是等概率发生的,所以 ()131341352441339 1.05681052P B C -?!! ==≈?! 则发生事件B 所得到的信息量为 ()()13 21352 4log log 13.208I B P B C =-=-≈ bit 3.976≈ dit 2.5 设在一只布袋中装有100只对人手的感觉完全相同的木球,每只上涂有1种颜色。100只球的颜色有下列三种情况: (1) 红色球和白色球各50只; (2) 红色球99只,白色球1只; (3) 红,黄,蓝,白色各25只。 求从布袋中随意取出一只球时,猜测其颜色所需要的信息量。 解:猜测木球颜色所需要的信息量等于木球颜色的不确定性。令 R ——“取到的是红球”,W ——“取到的是白球”, Y ——“取到的是黄球”,B ——“取到的是蓝球”。 (1)若布袋中有红色球和白色球各50只,即 ()()501 1002P R P W == = 则 ()()221 log log 212 I R I W ==-== bit (2)若布袋中红色球99只,白色球1只,即

信息论与编码第一章答案

第一章信息论与基础 1.1信息与消息的概念有何区别? 信息存在于任何事物之中,有物质的地方就有信息,信息本身是看不见、摸不着的,它必须依附于一定的物质形式。一切物质都有可能成为信息的载体,信息充满着整个物质世界。信息是物质和能量在空间和时间中分布的不均匀程度。信息是表征事物的状态和运动形式。 在通信系统中其传输的形式是消息。但消息传递过程的一个最基本、最普遍却又十分引人注意的特点是:收信者在收到消息以前是不知道具体内容的;在收到消息之前,收信者无法判断发送者将发来描述何种事物运动状态的具体消息;再者,即使收到消息,由于信道干扰的存在,也不能断定得到的消息是否正确和可靠。 在通信系统中形式上传输的是消息,但实质上传输的是信息。消息只是表达信息的工具,载荷信息的载体。显然在通信中被利用的(亦即携带信息的)实际客体是不重要的,而重要的是信息。 信息载荷在消息之中,同一信息可以由不同形式的消息来载荷;同一个消息可能包含非常丰富的信息,也可能只包含很少的信息。可见,信息与消息既有区别又有联系的。 1.2 简述信息传输系统五个组成部分的作用。 信源:产生消息和消息序列的源。消息是随机发生的,也就是说在未收到这些消息之前不可能确切地知道它们的内容。信源研究主要内容是消息的统计特性和信源产生信息的速率。 信宿:信息传送过程中的接受者,亦即接受消息的人和物。 编码器:将信源发出的消息变换成适于信道传送的信号的设备。它包含下述三个部分:(1)信源编码器:在一定的准则下,信源编码器对信源输出的消息进行适当的变换和处理,其目的在于提高信息传输的效率。(2)纠错编码器:纠错编码器是对信源编码器的输出进行变换,用以提高对于信道干扰的抗击能力,也就是说提高信息传输的可靠性。(3)调制器:调制器是将纠错编码器的输出变换适合于信道传输要求的信号形式。纠错编码器和调制器的组合又称为信道编码器。 信道:把载荷消息的信号从发射端传到接受端的媒质或通道,包括收发设备在内的物理设施。信道除了传送信号外,还存储信号的作用。 译码器:编码的逆变换。它要从受干扰的信号中最大限度地提取出有关信源输出消息的信息,并尽可能地复现信源的输出。 1.3 同时掷一对骰子,要得知面朝上点数之和,描述这一信源的数学 模型。 解:设该信源符号集合为X

《信息论》(电子科大)复习资料

信息论导论参考资料 作者 龙非池 第一章 概论 ● 在认识论层次研究信息时,把只考虑到形式因素的部分称为语法信息, 把只考虑到含义因素的部分称为语义信息;把只考虑到效用因素的部分称为语用信息。目前,信息论中主要研究语法信息 ● 归纳起来,香农信息论的研究内容包括: 1) 信息熵、信道容量和信息率失真函数 2) 无失真信源编码定理、信道编码定理和保真度准则下的信源编码定理 3) 信源编码、信道编码理论与方法 ● 一般认为,一般信息论的研究内容除香农信息论的研究内容外,还包括 维纳的微弱信号检测理论:包括噪声理论、信号滤波与预测、统计检测与估计理论、调制理论等。 信息科学以信息为研究对象,信息科学以信息运动规律为研究内容,信 息运动包括获取、传递、存储、处理和施用等环节。 第二章 离散信源及离散熵 ● 单符号离散信源的数学模型:1 212 ()()()()n n x x x X P x P x P x P X ?? ??=???????? 自信息量:()log ()i x i I x P x =-,是无量纲的,一般根据对数的底来定义单位:当对数底为2时,自信息量的单位为比特(bit,binary unit);对数底为e 时,其单位为奈特(nat,nature unit);对数底为10时,其单位为哈特(Hart, Hartley) 自信息量性质:I(x i )是随机量;I(x i )是非负值;I(x i )是P(x i )的单调递减函数。 ● 单符号离散信源的离散熵: 1()[()]()()n i i i i H X E I x P x lbP x ===-∑,单位是比特/符号(bit/symbol)。 离散熵的性质和定理:H(X)的非负性;H(X)的上凸性; 最大离散熵定理:()H X lbn ≤ ● 如果除概率分布相同外,直到N 维的各维联合概率分布也都与时间起点 无关,即:

信息论与编码习题参考答案(全)

信息论与编码习题参考答案 第一章 单符号离散信源 同时掷一对均匀的子,试求: (1)“2和6同时出现”这一事件的自信息量; (2)“两个5同时出现”这一事件的自信息量; (3)两个点数的各种组合的熵; (4)两个点数之和的熵; (5)“两个点数中至少有一个是1”的自信息量。 解: bit P a I N n P bit P a I N n P c c N 17.536log log )(36 1 )2(17.418log log )(362)1(36 662221111 616==-=∴====-=∴== =?==样本空间: * (3)信源空间: bit x H 32.436log 36 16236log 36215)(=??+?? =∴

bit x H 71.3636 log 366536log 3610 436log 368336log 366236log 36436log 362)(=??+?+?+??= ∴++ (5) bit P a I N n P 17.111 36 log log )(3611333==-=∴== ? 如有6行、8列的棋型方格,若有两个质点A 和B ,分别以等概落入任一方格内,且它们的坐标分别为(Xa ,Ya ), (Xb ,Yb ),但A ,B 不能同时落入同一方格内。 (1) 若仅有质点A ,求A 落入任一方格的平均信息量; (2) 若已知A 已落入,求B 落入的平均信息量; (3) 若A ,B 是可辨认的,求A ,B 落入的平均信息量。 解: ! bit a P a P a a P a I a P A i 58.548log )(log )()(H 48log )(log )(481 )(:)1(48 1 i i i i i ==-=∴=-=∴= ∑=落入任一格的概率 bit b P b P b b P b I b P A i 55.547log )(log )()(H 47 log )(log )(47 1 )(:B ,)2(48 1i i i i i ==-=∴=-=∴=∑=落入任一格的概率是落入任一格的情况下在已知 bit AB P AB P AB H AB P AB I AB P AB i i i i i i i 14.11)4748log()(log )()() (log )(47 1 481)()3(47481 =?=-=-=∴?=∑?=是同时落入某两格的概率 从大量统计资料知道,男性中红绿色盲的发病率为7%,女性发病率为%.如果你问一位男士:“你是否是红绿色盲”他的回答可能是:“是”,也可能“不是”。问这两个回答中各含有多少信息量平均每个回答中各含有多少信息量如果你问一位女士,则她的答案中含有多少平均信息量 解:

(完整版)信息论与编码概念总结

第一章 1.通信系统的基本模型: 2.信息论研究内容:信源熵,信道容量,信息率失真函数,信源编码,信道编码,密码体制的安全性测度等等 第二章 1.自信息量:一个随机事件发生某一结果所带的信息量。 2.平均互信息量:两个离散随机事件集合X 和Y ,若其任意两件的互信息量为 I (Xi;Yj ),则其联合概率加权的统计平均值,称为两集合的平均互信息量,用I (X;Y )表示 3.熵功率:与一个连续信源具有相同熵的高斯信源的平均功率定义为熵功率。如果熵功率等于信源平均功率,表示信源没有剩余;熵功率和信源的平均功率相差越大,说明信源的剩余越大。所以信源平均功率和熵功率之差称为连续信源的剩余度。信源熵的相对率(信源效率):实际熵与最大熵的比值 信源冗余度: 0H H ∞=ηη ζ-=1

意义:针对最大熵而言,无用信息在其中所占的比例。 3.极限熵: 平均符号熵的N 取极限值,即原始信源不断发符号,符号间的统计关系延伸到无穷。 4. 5.离散信源和连续信源的最大熵定理。 离散无记忆信源,等概率分布时熵最大。 连续信源,峰值功率受限时,均匀分布的熵最大。 平均功率受限时,高斯分布的熵最大。 均值受限时,指数分布的熵最大 6.限平均功率的连续信源的最大熵功率: 称为平均符号熵。 定义:即无记忆有记忆N X H H X H N X H X NH X H X H X H N N N N N N )() ()()()()()(=≤∴≤≤

若一个连续信源输出信号的平均功率被限定为p ,则其输出信号幅度的概率密度分布是高斯分布时,信源有最大的熵,其值为 1log 22 ep π.对于N 维连续平稳信源来说,若其输出的N 维随机序列的协方差矩阵C 被限定,则N 维随机矢量为正态分布时信源 的熵最大,也就是N 维高斯信源的熵最大,其值为1log ||log 222N C e π+ 7.离散信源的无失真定长编码定理: 离散信源无失真编码的基本原理 原理图 说明: (1) 信源发出的消息:是多符号离散信源消息,长度为L,可以用L 次扩展信 源表示为: X L =(X 1X 2……X L ) 其中,每一位X i 都取自同一个原始信源符号集合(n 种符号): X={x 1,x 2,…x n } 则最多可以对应n L 条消息。 (2)信源编码后,编成的码序列长度为k,可以用k 次扩展信宿符号表示为: Y k =(Y 1Y 2……Y k ) 称为码字/码组 其中,每一位Y i 都取自同一个原始信宿符号集合: Y={y 1,y 2,…y m } 又叫信道基本符号集合(称为码元,且是m 进制的) 则最多可编成m k 个码序列,对应m k 条消息 定长编码:信源消息编成的码字长度k 是固定的。对应的编码定理称为定长信源编码定理。 变长编码:信源消息编成的码字长度k 是可变的。 8.离散信源的最佳变长编码定理 最佳变长编码定理:若信源有n 条消息,第i 条消息出现的概率为p i ,且 p 1>=p 2>=…>=p n ,且第i 条消息对应的码长为k i ,并有k 1<=k 2<=…<=k n

群论-群论基础

物理学中的群论 ——群论基础 主讲翦知渐

群论教材教材与参考书 教材: 自编 参考书群论及其在固体物理中的应用 参考书:群论及其在固体物理中的应用(徐婉棠) 物理学中的群论 (马中骐) 物理学中的群论基础 (约什)

群论-群论基础 第章群论基础 第一章 群的基本概念和基本性质 §1.1 集合与运算 §1.2群的定义和基本性质 §1.3 子群及其陪集 13 §1.4 群的共轭元素类 §1.5 正规子群和商群 §1.6 直积和半直积 16 §1.7 对称群 §1.8 置换群

§1.1集合与运算抽象代数的基本概念 1集合 抽象代数研究的对象 什么都不是,所以什么都是 集合的直乘: C=A×B,表示“C的元素是由A和B两个集合的元素构成的 C A表示“ 一对有序元”,也称为A和B的直乘,用符号表示即: , a2,…, a i,…},B={b1, b2,…, b j,…},则集合设A={a A}B b b}则集合 1 C=A×B={(a i,b j)| a i∈A, b j∈B}是A与B的直乘。

定义设是两个集合若有种规则使得2映射 定义:设A 与B 是两个集合,若有一种规则f ,使得A 的每一个元素在B 上都有唯一的元素与之对应,这种对应规则f 的一个映射记为 就称为A 到B 的个映射,记为f :A → B f :x → y = f ( x ) , 或写为f y f (),式中y 称为x 在B 上的象,而x 称为y 在A 上的原象。对应规则函数对应规则:函数

满射 单射 一一映射 逆映射:f -1 恒等映射:e 变换恒等映射: 体系A 的一个自身映射f 称为A 的一个变换,若 f 是一一映 射则称为对称变换一一变换有性质:射,则称为对称变换。变换有性质: f f -1= f -1f = e

信息论大作业

信息论大作业 电子工程学院 班 号 1.Huffman编码 1. Huffman 编码原理: ①将信源符号按概率从大到小的顺序排列,令p(x1)≥ p(x2)≥…≥ p(xn) ②给两个概率最小的信源符号p(xn-1)和p(xn)各分配一个码位“0”和“1”,将这两个信源符号合并成一个新符号,并用这两个最小的概率之和作为新符号的概率,结果得到一个只包含(n-1)个信源符号的新信源。称为信源的第一次缩减信源,用S1表示。

③将缩减信源S1的符号仍按概率从大到小顺序排列,重复步骤2,得到只含(n -2)个符号的缩减信源S2。 ④重复上述步骤,直至缩减信源只剩两个符号为止,此时所剩两个符号的概率之和必为1。然后从最后一级缩减信源开始,依编码路径向前返回,就得到各信源符号所对应的码字。 2. 霍夫曼编码优缺点: 1)编出来的码都是异字头码,保证了码的唯一可译性。 2) 由于编码长度可变。因此译码时间较长,使得霍夫曼编码的压缩与还原相当费时。 3) 编码长度不统一,硬件实现有难度。 4) 对不同信号源的编码效率不同,当信号源的符号概率为2的负幂次方时,达到100%的编码效率;若信号源符号的概率相等,则编码效率最低。 5) 由于0与1的指定是任意的,故由上述过程编出的最佳码不是唯一的,但其平均码长是一样的,故不影响编码效率与数据压缩性能。 3.编码流程: 读入一幅图像的灰度值; 1.将矩阵的不同数统计在数组c的第一列中; 2.将相同的数占站整个数组总数的比例统计在数组p中; 3.找到最小的概率,相加直到等于1,把最小概率的序号存在tree第一列中,次 小放在第二列,和放在p像素比例之后; 4.C数组第一维表示值,第二维表示代码数值大小,第三维表示代码的位数; 5.把概率小的值为1标识,概率大的值为0标识; 6.计算信源的熵; 7.计算平均码长; 8.计算编码效率'; 9.计算冗余度。 源程序: p=input('请输入数据:'); n=length(p); for i=1:n if p(i)<0 fprintf('\n 提示:概率值不能小于0!\n');

信息论

第一章概论 1.信息、消息、信号的定义及关系。 定义 信息:事物运动状态或存在方式的不确定性的描述。 消息:指包含有信息的语言、文字和图像等。 信号:表示消息的物理量,一般指随时间而变化的电压或电流称为电信号。 关系 信息和消息 信息不等于消息。消息中包含信息,是信息的载体。 同一信息可以用不同形式的消息来载荷。 同一个消息可以含有不同的信息量。 信息和信号 信号是消息的载体,消息则是信号的具体内容。 信号携带信息,但不是信息本身。 同一信息可用不同的信号来表示,同一信号也可表示不同的信息。 2. 通信系统模型,箭头上是什么?通信的目的及方法。 通信的目的:是为了提高通信的可靠性和有效性。 信源编码:提高信息传输的有效性。(减小冗余度) 信道编码:提高信息传输的可靠性。(增大冗余度)

第二章 信源及其信息量 ★信源发出的是消息。 信源分类 1、信源按照发出的消息在时间上和幅度上的分布情况可将信源分成离散信源和连续信源。 2、根据各维随机变量的概率分布是否随时间的推移而变化将信源分为平稳信源和非平稳信源。 单符号离散信源 离散无记忆信源 无记忆扩展信源 离散平稳信源 离散有记忆信源 记忆长度无限 记忆长度有限(马尔可夫信源) 一、单符号离散信源 单符号离散信源的数学模型为 定义:一个随机事件发生某一结果后所带来的信息量为自信息量。定义为其发生 概率对数的负值。 以 奇才 单位: ?对数以2为底,单位为比特 (bit ) (binary unit ) ?对数以e 为底,单位为奈特 (nat ) (nature unit) ?对数以10为底,单位为笛特(det) (decimal unit) 或哈特 (hart) 物理含义: 在事件xi 发生以前,等于事件xi 发生的不确定性的大小; 在事件xi 发生以后,表示事件xi 所含有或所能提供的信息量。 性质: ①I(x i )是非负值. ②当p(x i )=1时,I(x i )=0. ③当p(x i )=0时,I(x i )=∞. ④I(x i ) 是p(x i )的单调递减函数. 联合自信息量 条件自信息量 自信息量、条件自信息量和联合自信息量之间有如下关系式: I(x i y j )= I(x i )+ I(y j / x i ) = I(y j )+ I(x i / y j ) ?? ????=??????)(,),(,),(),( ,, , , , )( 2121n i n i x p x p x p x p x x x x X P X )(log )( i i x p x I -= )(log )( j i j i y x p y x I -= 1)(,1)(01 =≤≤∑=n i i i x p x p

信息论习题集

信息论习题集 第一章、判断题 1、信息论主要研究目的是找到信息传输过程的共同规律,提高信息传输的可靠性、有效性、保密性和认证性,以达到信息传输系统的最优化。(√) 2、同一信息,可以采用不同的信号形式来载荷;同一信号形式可以表达不同形式的信息。(√) 3、通信中的可靠性是指使信源发出的消息准确不失真地在信道中传输;(√) 4、有效性是指用尽量短的时间和尽量少的设备来传送一定量的信息。(√) 5、保密性是指隐蔽和保护通信系统中传送的消息,使它只能被授权接收者获取,而不能被未授权者接收和理解。(√) 6、认证性是指接收者能正确判断所接收的消息的正确性,验证消息的完整性,而不是伪造的和被窜改的。(√) 7、在香农信息的定义中,信息的大小与事件发生的概率成正比,概率越大事件所包含的信息量越大。(×) 第二章 { 一、判断题 1、通信中获得的信息量等于通信过程中不确定性的消除或者减少量。(√) 2、离散信道的信道容量与信源的概率分布有关,与信道的统计特性也有关。(×) 3、连续信道的信道容量与信道带宽成正比,带宽越宽,信道容量越大。(×) 4、信源熵是信号符号集合中,所有符号的自信息的算术平均值。(×) 5、信源熵具有极值性,是信源概率分布P的下凸函数,当信源概率分布为等概率分布时取得最大值。(×) 6、离散无记忆信源的N次扩展信源,其熵值为扩展前信源熵值的N倍。(√) 7、互信息的统计平均为平均互信息量,都具有非负性。(×) 8、信源剩余度越大,通信效率越高,抗干扰能力越强。(×) 9、信道剩余度越大,信道利用率越低,信道的信息传输速率越低。(×) | 10、信道输入与输出之间的平均互信息是输入概率分布的下凸函数。(×) 11、在信息处理过程中,熵是不会增加的。(√) 12、熵函数是严格上凸的。(√) 13、信道疑义度永远是非负的。(√) 14、对于离散平稳信源,其极限熵等于最小平均符号熵。(√) 2-1 同时掷两个正常的骰子,也就是各面呈现的概率都是l/6,求: (1) “3和5同时出现”事件的自信息量; (2)“两个1同时出现”事件的自信息量; (3)两个点数的各种组合(无序对)的熵或平均信息量; (4) 两个点数之和(即2,3,…,12构成的子集)的熵; ~ (5)两个点数中至少有一个是1的自信息。 2-2 居住某地区的女孩中有25%是大学生,在女大学生中有75%身高为以 上,而女孩中身高以上的占总数一半。假如得知“身高以上的某女孩是大学 生”的消息,问获得多少信息量、

信息论第二次作业

3.5 AEP. Let ,,21X X be independent identically distributed random variables drawn according to the probability mass function {}m x x p ,2,1),(∈. Thus ∏==n i i n x p x x x p 1 21)(),,,( . We know that )(),,,(log 1 21X H X X X p n n →- in probability. Let ∏==n i i n x q x x x q 1 21)(),,,( , where q is another probability mass function on { }m ,2,1. (a) Evaluate ),,,(log 1 lim 21n X X X q n -, where ,,21X X are i.i.d. ~ )(x p . 8.1 Preprocessing the output. One is given a communication channel with transition probabilities )|(x y p and channel capacity );(max )(Y X I C x p =. A helpful statistician preprocesses the output by forming )(_ Y g Y =. He claims that this will strictly improve the capacity. (a) Show that he is wrong. (b) Under what condition does he not strictly decrease the capacity? 8.3 An addition noise channel. Find the channel capacity of the following discrete memoryless channel: Where {}{}2 1Pr 0Pr ====a Z Z . The alphabet for x is {}1,0=X . Assume that Z is independent of X . Observe that the channel capacity depends on the value of a .

信息论 复习题目(2017)

信息论复习提纲(2017) 第一章绪论 1.通信系统模型; 2.香浓信息的概念; 3.信源、信道、信源编码和信道编码研究的核心问题。 第二章离散信源及信源熵 1.离散信息量、联合信息量、条件信息量、互信息量定义; 2.信源熵、条件熵、联合熵定义; 3.平均互信息量定义、性质、三种表达式及物理意义,与其它熵的关系(不证明);4.最大信源熵定理及证明; 5.本章所有讲过的例题; 第三章离散信源的信源编码 1.信息传输速率、编码效率定义; 2.最佳编码定理(即3.2节定理:概率越大,码长越小;概率越小,码长越大)及证明;3.码组为即时码的充要条件; 4.单义可译定理(Kraft不等式)及应用; 5.费诺编码方法、霍夫曼编码方法应用(二进制,三进制,四进制); 6.本章所有讲过的例题; 第四章离散信道容量 1.利用信道矩阵计算信道容量(离散无噪信道、强对称离散信道、对称离散信道、准对称离散信道); 2.本章讲过的例题; 第五章连续消息和连续信道 1.相对熵的定义; 2.均匀分布、高斯分布、指数分布的相对熵及证明; 3.峰值功率受限条件下的最大熵定理及证明,平均功率受限条件下的最大熵定理及证明,均值受限条件下的最大熵定理及证明; 4.香农公式及意义; 5.本章所有讲过的例题; 第六章差错控制 1.重量、最小重量、汉明距离、最小汉明距离、编码效率的定义; 2.最小距离与检错、纠错的关系(即6.3节定理); 3.本章所有讲过的例题; 第七章线性分组码 1.线性分组码定义; 2.线性分组码的最小距离与最小重量的关系及证明; 3.生成矩阵、一致校验矩阵定义,给出线性方程组求出生成矩阵和一致校验矩阵的标准形式,生成矩阵与一致校验矩阵的关系; 4.制作标准阵列并利用标准阵列译码; 5.本章所有讲过的例题; 第八章循环码 1.生成多项式的特点,有关定理(8.2三定理1,定理2,定理3)及证明; 2.生成矩阵、一致校验矩阵定义,如何获得生成矩阵、一致校验矩阵的典型形式; 3.本章所有讲过的例题;

信息论与编码习题参考答案(全)

信息论与编码习题参考答案 第一章 单符号离散信源 同时掷一对均匀的子,试求: (1)“2和6同时出现”这一事件的自信息量; (2)“两个5同时出现”这一事件的自信息量; (3)两个点数的各种组合的熵; (4)两个点数之和的熵; (5)“两个点数中至少有一个是1”的自信息量。 解: bit P a I N n P bit P a I N n P c c N 17.536log log )(361 )2(17.418log log )(362)1(36 662221111 616==-=∴====-=∴== =?==样本空间: (3)信源空间:

bit x H 32.436log 36 16236log 36215)(=??+?? =∴ (4)信源空间: bit x H 71.3636 log 366536log 3610 436log 368336log 366236log 36436log 362)(=??+?+?+??= ∴++ (5) bit P a I N n P 17.111 36 log log )(3611333==-=∴== 如有6行、8列的棋型方格,若有两个质点A 和B ,分别以等概落入任一方格内,且它们的坐标分别为(Xa ,Ya ), (Xb ,Yb ),但A ,B 不能同时落入同一方格内。 (1) 若仅有质点A ,求A 落入任一方格的平均信息量; (2) 若已知A 已落入,求B 落入的平均信息量; (3) 若A ,B 是可辨认的,求A ,B 落入的平均信息量。 解: bit a P a P a a P a I a P A i 58.548log )(log )()(H 48log )(log )(481 )(:)1(48 1 i i i i i ==-=∴=-=∴= ∑=落入任一格的概率Θ bit b P b P b b P b I b P A i 55.547log )(log )()(H 47 log )(log )(47 1 )(:B ,)2(48 1i i i i i ==-=∴=-=∴=∑=落入任一格的概率是落入任一格的情况下在已知Θ

信息论作业答案

第二章 1 ■一阶齐次马尔柯夫信源消息集X ∈{321,,a a a },状态集S ∈{321,,S S S }。且令3,2,1,==i a S i i , 符号条件转移概率为[] ??? ?????=21414141214113131)/(i j S a P (1) 画出该信源的状态转移图;(2)解:(1) []11 13331114 241114 42 (|)j i p S S ????=?????? (2)111123 1344111 1232324111 12333421 231w w w w w w w w w w w w w w w ++=??++=??++=??++=?3 11142114 311 w w w =??=??=? H(X|S 1)=H (1/3,1/3,1/3)=1.58bit/符号 H(X|S 2)=H (1/4,1/2,1/4)=1.5bit/符号= H(X|S 3) 3 34 11111 ()(|) 1.58 1.52 1.52i i i H X w H X S ∞===?+??=∑bit/符号 2 如果你确定你的朋友是6月的生日,但是不知道具体是哪一天。那么你问你的朋友“你的生日是6月哪一天?”,则答案中含有的信息量为4.91bit ; 3p42 2-12 4 p42 2-13 5 p43 2-19 6 p44 2-29 第三章 1. ■设信道的转移概率矩阵为P =0.90.10.10.9?? ???? (1)若p(x 0)=0.4,p(x 1)=0.6,求H(X ),H(Y ),H(Y|X )和I(X ;Y );

信息论作业原题chapter2、3

第二、三章 习题 4.1 同时掷两个正常的骰子,也就是各面呈现的概率是 6 1,求: (1)“3和5同时出现”这一事件的自信息量。 (2)“两个1同时出现”这一事件的自信息量。 (3)两个点数的各种组合(无序对)的熵或平均信息量。 (4)两个点数之和(即2,3…12构成的子集)的熵。 (5)两个点数中至少有一个是1的自信息。 4.2 消息符号集的概率分布和二进制代码如下表 (1)求消息的符号熵。 (2)每个消息符号所需要的平均二进制码的个数或平均代码长度。进而用这个结果求码序列中的一个二进制码的熵。 (3)当消息是由符号序列组成时,各符号之间若相互独立,求其对应的二进制码序列中出现0和1的无条件概率0p 和1p ,求相邻码间的条件概率10110100,,,P P P P 。 4.3 某一无记忆信源的符号集为{0,1},已知0p = 14 ,1p = 34 (1)求符号的平均信息熵。 (2)由100个符号构成的序列,求某一特定序列(例如有m 个“0”和(m -100)个“1”)的自信息量的表达式。 (3)计算(2)中的序列的熵 4.6 有两个离散随机变量X 和Y ,其和为Y X Z +=(一般加法),若X 和Y 相互独立, 求证: (1))()(Z H X H ≤ )()(Z H Y H ≤ (2))()(Z H XY H ≥

4.7 对于任意的三个离散随机变量X ,Y ,Z , 求证: (1) (;)(;)(;)(;)(;)(;)I X Y Z I X Y I Y Z X I Y Z I Z X Y I Z X -=-=- (2) ()()()(;)I XYZ H XZ H Y X I Z Y X =+- (3) )()()()(X H ZX H XY H XYZ I -≤- 4.9 一个等概率的信源符号有八种字母,分别是10000x = ,20011x = ,30101x = , 40110x = ,51001x = ,61010x = ,71100x = ,81111x = ,用实验测定上述码字中的 每个二进制符号,可得二元输出y ,已知条件概率为00P =11P =1-ε 10P =01P =ε。实验结果得y =0000。求: (1)第一位码测定后所得的关于1x 的自信息。 (2)第二,第三,第四位码测定后各得多少关于1x 的自信息。 (3)全部结果y =0000关于1x 的自信息。 (4)讨论0=ε和2 1= ε时上述各自信息的情况。 4.12 两个n 元的随机变量X 和Y 。都取值于}{21n a a a A ?=定义(x )i i P a p ==, (y |x )j i ji P a a P ===以及∑ ∑≠= i j ji i i e P p P ; 求证:()log(1)(,1)e e e H X Y P n H P P ≤-+-其中H 是熵函数 4.14 有一个一阶平稳马尔柯夫链??r X X X ,,21,各r X 取值于集},,{321a a a A =。已知起始概率)(r X P 为11= p ,132= =p p ,转移概率为

信息论大作业

信息论大作业 信息论大作业电子工程学院班号编码1.Huffman 编码原理:①将信源符号按概率从大到小的顺序排列,令p(x1)≥ p(x2)≥?≥ p(xn) ②给两个概率最小的信源符号p(xn-1)和p(xn)各分配一个码位“0”和“1”,将这两个信源符号合并成一个新符号,并用这两个最小的概率之和作为新符号的概率,结果得到一个只包含(n-1)个信源符号的新信源。称为信源的第一次缩减信源,用S1表示。 ③将缩减信源S1的符号仍按概率从大到小顺序排列,重复步骤2,得到只含(n -2)个符号的缩减信源S2。④重复上述步骤,直至缩减信源只剩两个符号为止,此时所剩两个符号的概率之和必为1。然后从最后一级缩减信源开始,依编码路径向前返回,就得到各信源符号所对应的码字。 2. 霍夫曼编码优缺点:

1) 编出来的码都是异字头码,保证了码的唯一可译性。2) 于编码长度可变。因此译码时间较长,使得霍夫曼编码的压缩与还原相当费时。3) 编码长度不统一,硬件实现有难度。4) 对不同信号源的编码效率不同,当信号源的符号概率为2的负幂次方时,达到100%的编码效率;若信号源符号的概率相等,则编码效率最低。5) 于0与1的指定是任意的,故上述过程编出的最佳码不是唯一的,但其平均码长是一样的,故不影响编码效率与数据压缩性能。3.编码流程:读入一幅图像的灰度值; 1. 将矩阵的不同数统计在数组c的第一列中; 2. 将相同的数占站整个数组总数的比例统计在数组p中; 3. 找到最小的概率,相加直到等于1,把最小概率的序号存在tree第一列中,次小放在第二列,和放在p像素比例之后; 4. C数组第一维表示值,第二维表示代码数值大小,第三维表示代码的位数; 5. 把概率小的值为1标识,

信息论作业

熵 1. 从大量统计资料知道,男性中红绿色盲的发病率为7%,女性发病率为0.5 %,如果你问一位男同志:“你是否是红绿色盲?”他的回答可能是“是”,可 能是“否”,问这二个答案中各含多少信息量?平均每个回答中含有多少信息 量?如果你问一位女同志,则答案中含有的平均自信息量是多少? 2.. 设有一概率空间,其概率分布为{1p ,2p ,…,q p },并有1p >2p 。若取'1p =1p ε-,' 2p = 2p ε+,其中1202p p ε<≤-,其他概率不变。试证明由此所得新的概率空间的熵是增加 的,并用熵的物理意义加以解释。 3.(1)为了使电视图像获得良好的清晰度和规定的适当的对比度,需要用5×105个像素和10个不同的亮度电平,求传递此图像所需的信息率(比特/秒)。并设每秒要传送30帧图像,所有像素独立变化,且所有亮度电平等概率出现。 (2)设某彩电系统,除了满足对于黑白电视系统的上述要求外,还必须有30个不同的色彩度,试证明传输这彩色系统的信息率约是黑白系统的信息率的2.5倍。 4. 为了传输一个由字母A 、B 、C 、D 组成的符号集,把每个字母编码成两个二元码脉冲序列,以00代表A ,01代表B ,10代表C ,11代表D 。每个二元脉冲宽度为5ms 。 (1)不同字母等概率出现时,计算传输的平均信息速率; (2)若每个字母出现的概率分别为1111 ,,,2488 A B C D p p p p ====,试计算传输的平均信息速率。 5. 证明: 1212()()()()N N H X X X H X H X H X ???≤++???+ 6 设有扰离散信道的输入端是以等概率出现的A 、B 、C 、D 四个字母。该信道的正确传输概率为0.5,错误传输概率平均分布在其他三个字母上。验证在该信道上每个字母传输的平均信息量为0.21比特。 压缩编码 1. 有一信源,它有六种可能的输出,其概率分布如下表所示,表中给出了对应的六种编码 12345C C C C C 、、、、和6C 。 (1) 求这些码中哪些是唯一可译码; (2) 求哪些是非延长码(即时码); (3)

信息论第1章

第一章信息的定性描述 第一节对信息的初步认识 一. 信息社会 当今,世界上信息革命的热潮一浪高过一浪。近年来,移动电话、个人电脑和网络用户正以高于摩尔定律的速度迅猛增长。人们都在谈论着信息社会、信息革命和网络时代,信息似乎成了个很时髦的字眼儿。就连中国人平常打招呼的话“你吃饭了吗?”也被有些人改成“你上网了吗?”但这绝不是什么赶时髦,也绝不是什么偶然现象,而是社会发展的必然趋势。因为在信息社会里,人们最关心的是信息问题,而不是吃饭问题。“民以食为天”的信条将会逐渐被“民以信为天”所代替。社会学家和未来学家普遍认为,20世纪末和21世纪初,是信息革命爆发的时期。一些新技术的突破和新产业的出现,使社会生产力发生了新的飞跃,人们的生活也发生了新的变化,人类社会正在进入信息化社会。所谓信息化社会,就是以信息产业为中心,使社会生产、生活和经济都发展起来的社会。在这种社会中, ◆信息成了比物质或能源更为重要的资源, ◆对信息产业成了重要的产业。 ◆从事信息工作者成了主要的劳动者。 ◆信息和知识成了生产力发展的决定因素。 二. 信息的普遍性 其实,信息并不是什么新鲜东西, 信息无时不在,无处不有。 人们生活在信息的海洋里,天天都要通过自己的感觉器官感受各种外界信息。例如,衣食住行,读书看报,听广播,看电视等等。人们要进行社会活动就需要有信息交流。例如,除了书信、电话、电报之外,天天都要同许多人交谈、交往。人们还要进行信息处理和存储。例如,要把观察、接收到的大量事物、数据和资料进行分类、分析、整理和纪录。 不仅如此,信息也是人类自身进化的一个基本条件。恩格斯对于人类的进化过程,曾有过这样一段极其精彩的描述:“……这些猿类,大概是首先由于它们生活方式的影响……渐渐直立行走……手变得自由了……随着手的发展,随着劳动而开始的人对自然的统治,在每一个新的发展中扩大了人的眼界。……另一方面,劳动的发展必然促使社会成员更加紧密地互相结合起来,因为它使互相帮助和共同协作的场合增多了,并且使每个人都清楚地意识到这种共同协作的好处。一句话,这些正在形成中的人,已经到了彼此间有些什么非说不可的地步了。需要产生了自己的器官:猿类不发达的喉头,由于音调的抑扬顿挫的不断加多,缓慢地然而肯定地得到改造,而口部的器官也逐渐学会了发出一个个清晰的音节……首先是劳动,然后是语言和劳动一起,成了两个最主要的推动力,在它们的影响下,猿的脑髓就逐渐地变成人的脑髓……由于随着完全形成的人的出现而产生了新的因素——社会。”在这里,我们看到了一幅清晰的图景,它说明这些正在形成中的人,怎样在与外部的联系中产生了感知信息与利用信息的需要,因而逐渐形成和发展了自己的信息器官:眼、耳、口、脑等等。形成和发展这些器官,形成和发展语言,正是为了从自然界取得信息和利用信息来强化自己,

信息论第一章

第一章 1-1 信息.消息和信号的定义是什么?三者的关系是什么? 答:定义:信息是事物运动状态或存在方式的不确定性的描述。 用文字、符号、数据、语言、音符、图片、图像等能够被人们感觉器官所感知的形式,把客观物质运动和主观思维活动的状态表达出来就成为消息。 把消息换成适合信道传输的物理量,这种物理量称为信号。 三者的关系:消息包含信息,是信息的载体,但不是物理性的。信号是信息的载体,是物理性的。 1-3 写出信息论的定义(狭义信息论和广义信息论). 答:狭义信息论:信息论是在信息可以度量的基础上有效地和可靠地传递信息的科学,它涉及信息的度量、信息的特性、信息传输速率、信道容量、干扰对信息传输的影响等方面的知识。 广义信息论:信息论包括通信的全部统计问题的研究、香农信息论、信号设计、噪声理论、信号检测与估值等,还包括如医学、生物学、心理学、遗传学、神经生理学、语言学甚至社会学和科学管理学中有关信息的问题。 1-5信息有哪些分类? 答:( 1 )按信息的性质分类:语法信息,语义信息和语用信息; (2)按观察过程分类:实在信息,先验信息和实得信息; (3)按信息的地位分类:客观信息(效果信息、环境信息)和主观信息(决策信息,指令、控制和目标信息); (4)按信息的作用分类:有用信息、无用信息和干扰信息; ( 5)按信息的逻辑意义分类:真实信息、虚假信息和不定信息; (6)按信息的传递方向分类:前馈信息和反馈信息; ( 7)按信息的生成领域分类:宇宙信息、自然信息、思维信息和社会信息;(8)按信息的信息源性质分类:语言信息、图像信息、数据信息、计算信息和文字信息; (9)按信息的信号形成分类:连续信息、离散信息和半连续信息。 09电子2 22 何清林

信息论第二章作业

2-1 同时掷两个正常的骰子,也就是各面呈现的概率都是1/6,求: (1)“3和5同时出现”这事件的自信息量。 (2)“两个1同时出现”这事件的自信息量。 (3)两个点数的各种组合(无序对)的熵或平均信息量。 (4)两个点数之和(即2,3,…,12构成的子集)的熵。 (5)两个点数中至少有一个是1的自信息。 2-2 设有一离散无记忆信源,其概率空间为 []??????=====8/14/14/18 /332104321x x x x P X (1) 求每个符号的自信息量; (2) 若信源发出一消息符号序列为(202 120 130 213 001 203 210 110 321 010 021 032 011 223 210),求该消息序列的自信息量及平均每个符号携带的信息量。 2-3 有一个可旋转的圆盘,盘面上被均匀地分成38份,用1,2,…,38数字标示,其中有 2份涂绿色,18份涂红色,18份涂黑色,圆盘停转后,盘面上指针指向某一数字和颜色。 (1) 若仅对颜色感兴趣,计算平均不确定度; (2) 若仅对颜色和数字都感兴趣,计算平均不确定度; (3) 如果颜色已知时,计算条件熵。 2-4 有两个二元随机变量X 和Y ,它们的联合概率如表所示。并定义另一随机变量Z =XY (一 般乘积)。试计算: (1)H (X )、H (Y )、H (Z)、H (X Z)、H (Y Z)和H (XY Z)。 (2)H (X /Y )、H (Y /X )、H (X /Z)、H (Z/X )、H (Y /Z)、H (Z/Y )、H (X /Y Z)、H (Y /X Z)和H (Z/XY )。 (3)I(X ;Y )、I(X ;Z)、I(Y ;Z)、I(X ;Y /Z)、I(Y ;Z/X )和I(X ;Z/Y )。 2-5 由符号集{0,1}组成的二阶马氏链,转移概率为:p(0/00)=0.8,p(0/11)=0.2,p(1/00) =0.2,p(1/11)=0.8,p(0/01)=0.5,p(0/10)=0.5,p(1/01)=0.5,p(1/10)=0.5。画出状态图,并计算各状态的稳态概率。 2-6 有一个一阶平稳马尔可夫链X 1,X 2,…X r ,…,各X r 取值于集A ={a 1,a 2,a 3}。已知 起始概率P(X r )为:p 1 = 1/2,p 2 = p 3 = 1/4,转移概率为: (1)求X 1X 2X 3的联合熵和平均符号熵。 (2)求这个链的极限平均符号熵。 (3)求H 0,H 1,H 2和它们所对应的冗余度。 2-7 证明:(信息不等式),p(x),q(x)是两概率分布,相对熵D(p(x)||q(x))≥0 2-8 证明:(最大熵定理),H(x)≤logM, M 表示空间的维数 2-9 证明:条件熵小于等于熵(无条件)

相关主题