收藏 分享(赏)

信息论2010练习答案new.doc

上传人:dzzj200808 文档编号:2292999 上传时间:2018-09-09 格式:DOC 页数:5 大小:305.64KB
下载 相关 举报
信息论2010练习答案new.doc_第1页
第1页 / 共5页
信息论2010练习答案new.doc_第2页
第2页 / 共5页
信息论2010练习答案new.doc_第3页
第3页 / 共5页
信息论2010练习答案new.doc_第4页
第4页 / 共5页
信息论2010练习答案new.doc_第5页
第5页 / 共5页
亲,该文档总共5页,全部预览完了,如果喜欢就下载吧!
资源描述

1、熵 是香农信息论最基本最重要的概念。单符号离散信源一般用随机变量描述,而多符号离散信源一般用 随机矢量 描述。两个相互独立的随机变量的联合自信息量等于 两个自信息量之和 。离散平稳无记忆信源 X 的 N 次扩展信源的熵等于离散信源 X 的熵的 N 倍 。对于 n 元 m 阶马尔可夫信源,其状态空间共有 nm 个不同的状态。若一离散无记忆信源的信源熵 H(X )等于 4.2,对信源进行等长的无失真二进制编码,则编码长度至少为 5 。同时掷两个正常的骰子,各面呈现的概率都为 1/6,则“3 和 6 同时出现”这件事的自信息量是 log218(1+2 log23) 。一副充分洗乱的扑克牌(52 张)

2、 ,从中任意抽取 1 张,然后放回,若把这一过程看作离散无记忆信源,则其信源熵为 5log2 。具有一一对应关系的无噪信道的信道容量 C= log2n 。信道编码定理是一个理想编码的存在性定理,即:信道无失真传递信息的条件是 信息率小于信道容量 。信源的消息通过信道传输后的误差或失真越大,信宿收到消息后对信源存在的不确定性就 越大 ,获得的信息量就越小平均失真度的下限取 0 的条件是失真矩阵的 每一行至少有一个零元素 。率失真函数对允许的平均失真度是 单调递减和连续的 。对于离散无记忆信源的率失真函数的最大值是 log2n 。信源编码的目的是: 提高通信的有效性 。对具有 8 个消息的单符号离

3、散无记忆信源进行 4 进制哈夫曼编码时,为使平均码长最短,应增加 2 个概率为 0 的消息。对于香农编码、费诺编码和哈夫曼编码,编码方法惟一的是 香农编码 。游程序列的熵 等于 原二元序列的熵。n 位重复码的编码效率是 1/n 。若纠错码的最小距离为 dmin,则可以纠正任意小于等于 t= 21mind个差错。单符号离散信源的自信息和信源熵都具有非负性。对自信息量、条件自信息量和联合自信息量之间有如下关系:)/()/()( jijijiji yxIxyIyxI 对自信息量、条件自信息量和互信息量之间有如下关系:; ijjjiiji 对当随即变量 X 和 Y 相互独立时,条件熵等于信源熵。对若对

4、一离散信源(熵为 H(X) )进行二进制无失真编码,设定长码子长度为 K,变长码子平均长度为 K,一般 K。 错信道容量 C 是 I(X;Y)关于 p(x i)的条件极大值。 对离散无噪信道的信道容量等于 log2n,其中 n 是信源 X 的消息个数。 错率失真函数没有最大值。 错率失真函数的最小值是 0 。对信源编码通常是通过压缩信源的冗余度来实现的。 对在编 m(m2)进制的哈夫曼码时,要考虑是否需要增加概率为 0 的码字,以使平均码长最短。 对在游程编码过程中, “0”游程和“1”游程应分别编码,因此,它们的码字不能重复。 错汉明码是一种线性分组码。对循环码也是一种线性分组码。 对 卷积

5、码是一种特殊的线性分组码。 错1、 i, j 是两个码符号0,1组成的符号序列 , 求 i, j 之间的汉明距离 解:D( i, j)= 2、已知随即变量 X 和 Y 的联合分布如下所示:0 10 1/8 3/81 3/8 1/8试计算:H(X) 、H(Y) 、H (XY) 、H(X/Y ) 、H (Y/X) 、I(X;Y )(1) H X( ) 1 HY( ) 1 (2)(3)H(X/Y)= H(XY)- H(Y)=1.811-1=0.811 (4)H(Y/X)= H(XY)- H(X)=1.811-1=0.811(5)4、在一个袋子里放有 5 个黑球、10 个白球,以摸一个球为一次实验,摸

6、出的球不再放回去。(1)一次实验包含的不确定度。 (2)第一次实验 X 摸出的是黑球,第二次实验 Y 给出的不确定度;(3)第一次实验 X 摸出的是白球,第二次实验 Y 给出的不确定度;5、 两个实验 X 和 Y,X x1,x2,x3,Y=y1,y2,y3,联合概率 p(xiyj)=pij 已经给出。(p 11=7/24,p12=1/24,p13=0,p21=1/24,p22=1/4,p23=1/24,p31=0,p32=1/24,p33=7/24)(1)如果有人告诉你 X 和 Y 的实验结果,你得到的平均信息量是多少?(2)如果有人告诉你 Y 的实验结果,你得到的平均信息量是多少?(3)在已

7、知 Y 实验结果的情况下,告诉你 X 的实验结果,你得到的平均信息量是多少?YX6、 黑白传真机的消息源只有黑色和白色两种,即 X黑,白,一般气象图上,黑色的出现概率 p(黑)0.3,白色出现的概率 p(白)0.7.(1)假设黑白消息前后无关,求信源熵 H(X)。 (2)实际上各个元素之间关联,其转移概率为:P(白/白)0.9143,p(黑/白)0.0857, P(白/黑)0.2,p(黑/黑)0.8,求这个一阶马尔可夫信源的信源熵。并画出转移图。 (3)比较两种信源熵的大小,并说明理由。1) bit/符号2210(.3log.7l0.81HXP(黑|白)=P(黑)P(白|白)P( 白 ) 黑

8、白0 . 70 . 30 . 70 . 3P(黑|黑)P( 黑 )P(白|黑)P( 白 )(2)根据题意,此一阶马尔可夫链是平稳的(P(白)0.7 不随时间变化,P(黑) 0.3 不随时间变化) 212 22 1()|)(,)log(,)10.9143.7log0.857.0.3log.943.857.8ijijijHXpxyxy0.512bit/符号13、设分组码(n,k)中,n=6,n=3,并按下列方程选取字中的码字。求信息序列(a 1a2a3)变换成六位的八个码字,并求出编码效率。信息序列 码字(a1a2a3) (c1c2 c3c4c5c6)000 000000001 001011010

9、 010101100 100110011 011110101 101101110 110011111 111000 编码效率2.32 一阶马尔可夫信源的状态图如图 213 所示,信源 X 的符号集为(0,1,2) 。(1)求信源平稳后的概率分布 P(0),P(1),P(2)(2)求此信源的熵(3)近似认为此信源为无记忆时,符号的概率分布为平稳分布。求近似信源的熵 H(X)并与 进行比较H0 121 - pp / 21 - pp / 2p / 2p / 2p / 2p / 21 - p图 2 - 1 3解:根据香农线图,列出转移概率距阵 令状态 0,1,2 平稳后的概率分布1/2pP分别为 W1

10、,W2,W3得到 计算得到31iWP12312123()pW 13W由齐次遍历可得 112()(|)3(,)(logl2ii pHXWHp符号 由最大熵定理可知 存在极大值,log.58/bit )X或者也可以通过下面的方法得出存在极大值: ()121l()()loglog()Xpppp 又 所以 当 p=2/3 时2(1)2()00,()12()p0p2/3 时 log(1)HXpp2/3p1 时 ()l02()所以当 p=2/3 时 存在极大值 ,且 符号 所以()HXmax(1.58/HXbit ,()HX8、 设有一信源,它在开始时以 p(a)=0.6,p(b)=0.3,p(c)=0.1 的概率发出 X1,如果 X1 为a 时则 X2 为 a,b,c 的概率为 1/3;如果 X1 为 b 时则 X2 为 a,b,c 的概率为 1/3;如果 X1 为 c时则 X2 为 a,b 的概率为 1/2,而为 c 的概率是 0;而且后面发出 Xi的概率只与 Xi-1有关。又 p(Xi/ Xi-1)=p(X2/ X1),i3 。试利用马儿可夫信源的图示法画出状态转移图,并求出状态转移矩阵和信源熵 HP(j/i)= 解方程组 得到 W1= , W2= , W3=

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 高等教育 > 大学课件

本站链接:文库   一言   我酷   合作


客服QQ:2549714901微博号:道客多多官方知乎号:道客多多

经营许可证编号: 粤ICP备2021046453号世界地图

道客多多©版权所有2020-2025营业执照举报