还剩3页未读,继续阅读
文本内容:
对于紧致码在三种编码方法下的编码特性研究摘要本文针对一种被称为紧致码的特殊的信源空间分布,基于Shannon,Fano和Huffman三种编码方法,并分别对其进行了证明,发现对于某种特殊的信源分布的紧致码,平均码长与其信源概率分布有关同时通过引入Huffmantree构造方法证明了Huffman编码方法的情况,简化了对于这种特殊的信源分布的紧致码编码过程关键词紧致码;Fano;Huffman;Huffmantree;Shannon
一、引言21世纪,国际社会已进入信息化时代信息论作为信息科学和技术的基本理论,犹如信息科学大厦的地基,在信息社会中占据越来越重要的地位信息论的创始人Shannon,他在1949年发表了《保密通信的信息理论》,是每一位研究信息学者必读的一篇文章
[1]随着信息技术的发展,编码技术已经在媒体技术、网络技术、无线通信技术、数字电视技术等方面得到广泛应用
[2]信息论、错误控制编码和密码学是现在数字通信系统中的三大支柱信息论基础是应用概率论、随机过程和近世代数等方法研究信息的存储、传输和处理中一般规律的学科,主要解决通信过程中信息传输的有效性、可靠性与安全性的问题,是信息科学和通信科学领域中的一门基础理论[3,4]信息论将信息的传递作为一种统计现象来考虑,给出了估算通信信道容量的方法信息传输和信息压缩是信息论研究中的两大领域紧致码在信息论的研究中有着至关重要的作用,并且具有重大实际意义本文的目的是用信息论观点对紧致码进行若干研究,以Shannon,Fano和Huffman三种编码方法为例,分别介绍它们的编码原理以及相关证明,进一步得出结论
二、紧致码这里我们介绍一种特殊的信源分布,如果其中各消息概率满足pi其中hi为任意正整数,对信源进行二进制编码,该编码为最佳编码,或者说获得码是紧致码
[5]编码效率式中HX=-∑pilog2pi为信源熵,r为码符号数,这里考虑二进制编码,r=2,为编码后平均码长,定义表达式为从平均码长的角度出发,对于给定信源,使平均码长达到最小的编码方法,称为最佳编码,得到的码称为最佳码,即紧致码本文考虑信源的每个消息的概率满足,信源消息编码后的码长为ni=hi,则编码效率为下面我们将对上述结论进行证明
三、三种编码法及其证明
3.1对于Shannon编码的证明首...。