《信息论与编码》课后答案.doc
《《信息论与编码》课后答案.doc》由会员分享,可在线阅读,更多相关《《信息论与编码》课后答案.doc(93页珍藏版)》请在沃文网上搜索。
1、第二章课后习题【2.1】设有 12 枚同值硬币,其中有一枚为假币。只知道假币的重量与真币的重量不同,但不知究竟是重还是轻。现用比较天平左右两边轻重的方法来测量。为了在天平上称出哪一枚是假币,试问至少必须称多少次?解:从信息论的角度看,“12 枚硬币中,某一枚为假币”该事件发生的概率为 P =112;“假币的重量比真的轻,或重”该事件发生的概率为 P =12;为确定哪一枚是假币,即要消除上述两事件的联合不确定性,由于二者是独立的,因此有I = log12 + log 2 = log 24 比特而用天平称时,有三种可能性:重、轻、相等,三者是等概率的,均为 P =平每一次消除的不确定性为 I =
2、log 3 比特因此,必须称的次数为13,因此天I 1I 2=log 24log 3 2.9 次因此,至少需称 3 次。【延伸】如何测量?分 3 堆,每堆 4 枚,经过 3 次测量能否测出哪一枚为假币。【2.2】同时扔一对均匀的骰子,当得知“两骰子面朝上点数之和为 2”或“面朝上点数之和为 8”或“两骰子面朝上点数是 3 和 4”时,试问这三种情况分别获得多少信息量?解:“两骰子总点数之和为 2”有一种可能,即两骰子的点数各为 1,由于二者是独立的,因此该种情况发生的概率为 P =1 16 6=136,该事件的信息量为:I = log 36 5.17 比特“两骰子总点数之和为 8”共有如下可能
3、:2 和 6、3 和 5、4 和 4、5 和 3、6 和 2,概率为 P =1 16 6536,因此该事件的信息量为:36I = log 2.85 比特5“两骰子面朝上点数是 3 和 4”的可能性有两种:3 和 4、4 和 3,概率为 P =1 16 6118,因此该事件的信息量为:I = log18 4.17 比特【2.3】如果你在不知道今天是星期几的情况下问你的朋友“明天星期几?”则答案中含有多少信息量?如果你在已知今天是星期四的情况下提出同样的问题,则答案中你能获得多少信息量(假设已知星期一至星期日的顺序)?解:如果不知今天星期几时问的话,答案可能有七种可能性,每一种都是等概率的,均为P
4、 =17,因此此时从答案中获得的信息量为I = log 7 = 2.807 比特而当已知今天星期几时问同样的问题,其可能性只有一种,即发生的概率为 1,此时获得的信息量为 0 比特。【2.4】居住某地区的女孩中有 25%是大学生,在女大学生中有 75%是身高 1.6 米以上的,而女孩中身高 1.6 米以上的占总数一半。假如我们得知“身高 1.6 米以上的某女孩是大学生”的消息,问获得多少信息量?解:设 A 表示女孩是大学生, P( A) = 0.25 ;B 表示女孩身高 1.6 米以上, P( B | A) = 0.75 , P( B) = 0.5“身高 1.6 米以上的某女孩是大学生”的发生
5、概率为 5 = 2 =P( A | B) =P( AB)P( B)=P( A) P(B | A)P( B)=0. 25 0. 750.5= 0.375已知该事件所能获得的信息量为I = log10.375 1.415 比特 X a1 = 0 a2 = 1 a3 = 2 a4 = 31/ 4 1 / 4,其发出的消息为(202120130213001203210110321010021032011223210),求(1) 此消息的自信息是多少?(2) 在此消息中平均每个符号携带的信息量是多少?解:信源是无记忆的,因此,发出的各消息之间是互相独立的,此时发出的消息的自信息即为各消息的自信息之和。根
6、据已知条件,发出各消息所包含的信息量分别为:I (a0 = 0) = log83= 1.415 比特I (a1 = 1) = log 4 = 2 比特I (a2 = 2) = log 4 = 2 比特I (a3 = 3) = log 8 = 3 比特在发出的消息中,共有 14 个“0”符号,13 个“1”符号,12 个“2”符号,6 个“3”符号,则得到消息的自信息为:I = 14 1.415 + 13 2 + 12 2 + 6 3 87.81 比特45 个符号共携带 87.81 比特的信息量,平均每个符号携带的信息量为I =87.8145= 1.95 比特/符号注意:消息中平均每个符号携带的
7、信息量有别于离散平均无记忆信源平均每个符号携带的信息量,后者是信息熵,可计算得H ( X ) = P( x) log P( x) = 1.91比特/符号 = 3 / 81/ 8 【 2.5 】 设 离 散 无 记 忆 信 源 P( x) 【2.6】如有 6 行 8 列的棋型方格,若有二个质点 A 和 B,分别以等概率落入任一方格内,且它们的坐标分别为(XA,YA)和(XB,YB),但 A 和 B 不能落入同一方格内。(1) 若仅有质点 A,求 A 落入任一个格的平均自信息量是多少?(2) 若已知 A 已落入,求 B 落入的平均自信息量。(3) 若 A、B 是可分辨的,求 A、B 同都落入的平均
8、自信息量。解:(1)求质点 A 落入任一格的平均自信息量,即求信息熵,首先得出质点 A 落入任一格的概率空间为: X a2148a3148L a48 1 L 平均自信息量为H ( A) = log 48 = 5.58 比特/符号(2)已知质点 A 已落入,求 B 落入的平均自信息量,即求 H ( B | A) 。A 已落入,B 落入的格可能有 47 个,条件概率 P(b j | ai ) 均为147。平均自信息量为48 47i =1 j =1(3)质点 A 和 B 同时落入的平均自信息量为H ( AB) = H ( A) + H (B | A) = 11.13 比特/符号【2.7】从大量统计资
9、料知道,男性中红绿色盲的发病率为 7%,女性发病率为 0.5%,如果你问一位男同志:“你是否是红绿色盲?”,他的回答可能是“是”,也可能是“否”,问这两个回答中各含有多少信息量?平均每个回答中含有多少信息量?如果你问一位女同志,则答案中含有的平均自信息量是多少?解: a1 P = 1 4848 H ( B | A) = P(ai )P(b j | ai ) log P(b j | ai ) = log 47 = 5.55 比特/符号男同志红绿色盲的概率空间为: X a1 a 2 问男同志回答“是”所获昨的信息量为:I = log10.07 3.836 比特/符号问男同志回答“否”所获得的信息量
10、为:I = log10.93 0.105 比特/符号男同志平均每个回答中含有的信息量为H ( X ) = P( x) log P( x) = 0.366 比特/符号同样,女同志红绿色盲的概率空间为Y P b1 b2 问女同志回答“是”所获昨的信息量为:I = log10.005 7.64 比特/符号问女同志回答“否”所获昨的信息量为:I = log10.995 7.23 10 3 比特/符号女同志平均每个回答中含有的信息量为H (Y ) = P( x) log P( x) = 0.045 比特/符号 X a1 a2 a3 a 4 a5 a6 P( x) 么 H ( X ) log 6 ,不满足
11、信源熵的极值性。解:H ( X ) = P( x) log P( x) = 2.65 log 6原因是给定的信源空间不满足概率空间的完备集这一特性,因此不满足极值条件。 P = 0.07 0.93= 0.005 0.995 = 0.2 0.19 0.18 0.17 0.16 0.17 ,求此信源的熵,并解释为什【2.8】设信源 【 2.9 】 设 离 散 无 记 忆 信 源 S 其 符 号 集 A = a1 , a2 ,., aq , 知 其 相 应 的 概 率 分 别 为(P1 , P2 ,., Pq ) 。 设 另 一 离 散 无 记 忆 信 源 S , 其 符 号 集 为 S 信 源 符
12、 号 集 的 两 倍 ,A = ai , i = 1,2,.,2q,并且各符号的概率分布满足Pi = (1 ) PiPi = Pii = 1,2,., qi = q + 1, q + 2,.,2q试写出信源 S 的信息熵与信源 S 的信息熵的关系。解:H (S ) = P( x) log P( x)= (1 ) Pi log(1 )Pi Pi log Pi= (1 ) Pi log(1 ) (1 ) Pi log Pi Pi log Pi log Pi= (1 ) log(1 ) log + H (S )= H (S ) + H ( ,1 )【2.10】设有一概率空间,其概率分布为 p1 ,
13、p 2 ,., p q ,并有 p1 p2 。若取 p1 = p1 ,p2 = p2 + ,其中 0 2 p1 p2 ,而其他概率值不变。试证明由此所得新的概率空间的熵是增加的,并用熵的物理意义加以解释。解:设新的信源为 X ,新信源的熵为:H ( X ) = pi log pi = ( p1 ) log( p1 ) ( p2 + ) log( p2 + ) L pq log p q原信源的熵H ( X ) = pi log pi = p1 log p1 p2 log p 2 L pq log p q因此有,H ( X ) H ( X ) = ( p1 ) log( p1 ) + ( p2 +
14、 ) log( p 2 + ) p1 log p1 p2 log p 2 p p2 2 f ( x) = logp 2 + xp1 x 0令 f ( x) = ( p1 x) log( p1 x) + ( p2 + x) log( p2 + x) , x 0, 1 ,则即函数 f ( x) 为减函数,因此有 f (0) f ( ) ,即( p1 ) log( p1 ) + ( p 2 + ) log( p2 + ) p1 log p1 + p 2 log p2因此 H ( X ) H ( X ) 成立。【解释】当信源符号的概率趋向等概率分布时,不确定性增加,即信息熵是增加的。L mi=1 j
15、=1H ( p1 , p2 ,K, p L1 , q1 , q 2 ,K, qm ) = H ( p1 , p2 ,K, p L 1 , p L ) + p L H (,p L p Lq,K, m )p L并说明等式的物理意义。解:H ( p1 , p2 ,K, p L1 , q1 , q2 ,K, qm )= p1 log p1 p 2 log p2 K p L 1 log p L 1 q1 log q1 q2 log q 2 K q m log qm= p1 log p1 p 2 log p2 K p L 1 log p L 1 p L log p L + p L log p L q1 l
16、og q1 q2 log q2 K qm log qm= p1 log p1 p 2 log p2 K p L 1 log p L 1 p L log p L + (q1 + q2 + q3 + L + qm ) log p L q1 log q1 q2 log q2 K qm log qm= p1 log p1 p 2 log p2 K p L 1 log p L 1 p L log p L q1 logq1p Lp L p Lq q= p1 log p1 p 2 log p2 K p L 1 log p L 1 p L log p L+ p L (q1p Lq q q q qp L p L
17、 p L p L p L= H ( p1 , p2 ,K, p L1 , p L ) + p L H m (,p L p Lq,K, m )p L【意义】将原信源中某一信源符号进行分割,而分割后的符号概率之和等于被分割的原符号的概率,则新信源的信息熵增加,熵所增加的一项就是由于分割而产生的不确定性量。【2.12】(1)为了使电视图像获得良好的清晰度和规定的适当的对比度,需要用 5105 个【2.11】试证明:若 pi = 1, q j = p L ,则q1 q 2 q 2 log 2 K qm log mlog 1 2 log 2 K m log m )q1 q2像素和 10 个不同亮度电平,
- 1.请仔细阅读文档,确保文档完整性,对于不预览、不比对内容而直接下载带来的问题本站不予受理。
- 2.下载的文档,不会出现我们的网址水印。
- 3、该文档所得收入(下载+内容+预览)归上传者、原创作者;如果您是本文档原作者,请点此认领!既往收益都归您。
下载文档到电脑,查找使用更方便
10 积分
下载 | 加入VIP,下载更划算! |
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 信息论与编码 信息论 编码 课后 答案
