收藏 分享(赏)

第8章 图像压缩(1).ppt

上传人:gnk289057 文档编号:8306619 上传时间:2019-06-19 格式:PPT 页数:53 大小:949KB
下载 相关 举报
第8章 图像压缩(1).ppt_第1页
第1页 / 共53页
第8章 图像压缩(1).ppt_第2页
第2页 / 共53页
第8章 图像压缩(1).ppt_第3页
第3页 / 共53页
第8章 图像压缩(1).ppt_第4页
第4页 / 共53页
第8章 图像压缩(1).ppt_第5页
第5页 / 共53页
点击查看更多>>
资源描述

1、第八章 图像压缩,8.1 图像压缩基础8.2 图像压缩模型8.4 无误差压缩8.5 有损压缩8.6 图像压缩标准,8.1 图像压缩基础,图像信息占据大量的存储容量,所用传输信道也较宽.一幅512512像素,8b/像素的灰度图像占据256KB的磁盘空间; 一幅512512像素,每分量8b/像素的彩色图像则占据3256768KB的磁盘空间; 如果以每秒24帧传送此彩色图像,则一秒钟的数据量就有2476818.5MB,那么一张680MB容量的CDROM仅能存储30多秒的原始数据。对图像数据的压缩必不可少。,8.1 图像压缩基础,相同数量的信息可以用不同数量的数据表示.图像压缩指减少表示给定信息量所需

2、的数据量.,数据冗余的量化:,相对数据冗余:,压缩率:,在数字图像压缩中,可以确定三种基本的数据冗余:编码冗余、像素间冗余和心理视觉冗余.数据中存在信息冗余,就有可能对图像数据量进行压缩,针对数据冗余的类型不同,可以有多种不同的数据压缩方法.,越大,压缩效果越好,8.1 图像压缩基础,编码冗余: 图像灰度可用不同的编码表示,8.1 图像压缩基础,例8.1,变长编码的例子,编码2,编码1,8.1 图像压缩基础,图8.1 用变长编码的数据压缩基本原理的图表表示,8.1 图像压缩基础,图8.2 两幅图像和它们的灰度级直方图以及沿着某条线计算的归一化自相关系数,像素间冗余,直方图,图像像素之间的相关性

3、,自相关系数,相邻像素之间具有高度相关性,8.1 图像压缩基础,自相关系数的计算:,另一种数据冗余形式:因为任何给定像素的值可以根据与这些像素相邻的像素进行适当的预测,所以由单个像素携带的信息相对较少.单一像素对于一幅图像的多数视觉共享是多余的;它的值可以通过相邻像素进行推测.,8.1 图像压缩基础,例8.2,行程编码的简单说明,(a),(b),(c),(d),(a)原图 (b)标记了线100 的二值图像 (c)线状剖面和二值化门限 (d)行程编码,8.1 图像压缩基础,1024343个像素, 每个像素用1个比特表示,12166个行程, 每个行程用11比特表示,8.1 图像压缩基础,心理视觉冗

4、余:,在正常的视觉处理过程中,各种信息的相对重要程度不同.那些不重要的信息称 为心理视觉冗余. 消除视觉冗余会导致一定量的信息丢失,这一过程常称为”量化”,例8.3 通过量化进行压缩,(a)256个灰度级的原图像 (b)均匀量化为16个灰度级 (c)用IGS量化为16个灰度级,压缩比率为2,出现假轮廓,8.1 图像压缩基础,心理视觉冗余:,IGS量化过程,8.1 图像压缩基础,保真度准则:图像的编码质量评价,定量分析丢失信息的性质和范围, 包括(1) 客观保真度准则 (2) 主观保真度准则,当信息损失的程度可以表示成初始图像或输入图像以及先被压缩而后被解压缩 的输出图像的函数时,就说这个函数是

5、基于客观保真度准则的.,8.1 图像压缩基础,保真度准则:,主观保真度准则:,8.2 图像压缩模型,信源 编码,信道 编码,信道,信道 解码,信源 解码,编码器,解码器,图8.5 一个常用的图像压缩系统模型,8.2 图像压缩模型,转换器,量化器,符号编码器,信道,信道,符号解码器,反向转换器,信源编码器,信源解码器,(a) 信源编码器 (b) 信源解码器,信源编码器和信源解码器,8.2 图像压缩模型,信道编码器和解码器,如果找到一个非零值,则解码器只需简单地在校验字指出的位置补充码字比特.解码的 二进制h3h5h6h7就能从纠正后的码字中提取出来.,信道带有噪声或易于出现错误,信道编码器和解码

6、器通过向信源编码数据中插入预制的冗余数据来减少信道噪声的影响.,设一个离散信源X:,满足,其概率分布:,离散信源类型,无记忆信源 信源的当前输出与以前的输出无关,有记忆信源,8.3 信息理论基础与熵编码,信息理论是图像编码的主要理论依据之一,它给出无失真编码所需比特数的下限, 为逼近这些下限提出了一系列熵编码算法.,(1) 离散信源的熵表示:,一般分成两种情况来考虑:,考虑无记忆信源X,某个信源符号xk,如果它出现的概率是pk,信源熵H(X),xk的自信息量,8.3 信息理论基础与熵编码,直观地理解自信息量的概念: 一个概率小的符号出现将带来更大的信息量.,每个符号的平均自信息量,单位: 比特

7、/符号,设,信源熵,则,各信源符号自信息量:,例 8.4,编码方法:a,b,c,d用码字00,01,10,11来编码,每个符号用2个比特.平均码长也是2比特.,8.3 信息理论基础与熵编码,设,信源熵,则,各信源符号自信息量:,例8.5,8.3 信息理论基础与熵编码,可以有两种编码方法:,2、 a,b,c,d分别用码字0,10,110,111来编码,1、a,b,c,d用码字00,01,10,11来编码,平均码长:,平均码长大于信源的熵,平均码长:,平均码长等于信源的熵,8.3 信息理论基础与熵编码,设,信源熵,则,各信源符号自信息量:,例8.6,用例8.5第二种编码方法 ,平均码长为1.85,

8、大于信源熵,8.3 信息理论基础与熵编码,可得到几点提示:信源的平均码长lavg=H(X);也就是说熵是无失真编码的下界. 如果所有I(xk)都是整数,且l(xk)=I(xk),可以使平均码长等于熵. 对非等概率分布的信源,采用不等长编码其平均码长小于等长编码的平均码长. 如果信源中各符号的出现概率相等,信源熵值达到最大,这就是重要的最大离散熵定理.例:对于二元信源X=a,b,N=2,符号a出现的概率为p,那么符号b出现的概率为1-p,其熵为H(p)=-p*log2(p)+(1-p)*log2(1-p).当p=1/N=0.5时,H(p)=1,取得最大值当p=0或p=1时,H(p)=0,即是确定

9、性事件集.离散无计机信源的冗余度寓于信源符号的非等概率分布之中,因此,要想压缩数据,就要设法改变信源的概率分布,使其尽可能非均匀.,8.3 信息理论基础与熵编码,考虑有记忆信源X(1阶马尔可夫信源 ),1阶熵,条件概率,联合概率,8.3 信息理论基础与熵编码,若把信息论中的熵值应用到图像信息源中,若图像的灰度级为0,L-1,则可以通过直方图得到各灰度级概率ps(sk),那么此时图像的熵为:,对m阶马尔可夫信源,可以证明:,结论:对于有记忆信源,如果符号序列中前面的符号知道得越多,那么下一个符号的平均信息量就越小,8.3 信息理论基础与熵编码,1)香农信息保持编码定理 香农信息论已证明,信源熵是

10、进行无失真编码的理论极限.低于此极限的无失真编码方法是不存在的,这是熵编码的理论基础.而且可以证明,考虑像素间的相关性,使用高阶熵一定可以获得更高的压缩比.,2)变长编码定理 变长编码定义:对于一个无记忆离散信源中每一个符号,若采用相同长度的不同码字代表相应符号,就叫做等长编码,例如中国4位电报码.若对信源中的不同符号,用不同长度的码字表示就叫做不等长或变长编码. 与定长编码相比,变长编码更复杂,除唯一可译码(也称为单义可译)的要求,还存在即时解码问题.,8.3 信息理论基础与熵编码,变长编码定理:若一个离散无记忆信源具有熵H(X),并有r个码元符号集,则总可以找到一种无失真信源编码,构成单义

11、可译码,使其平均码长满足:,当r=2,8.3 信息理论基础与熵编码,例,编码A是可以即时解码的,而编码B是有惟一解码的,却不是即时的.如收到码串01,要等下一个比特到来.,给定一个无记忆离散信源,意味着其统计特性已知,则信源的熵已确定,那么,信源的单义可译码长L的下界也就随之确定了.,3)变长最佳编码定理 在变长编码中,对出现概率大的信息符号赋予短码字,而对于出现概率小的信息符号赋予长码字.如果码字长度严格按照所对应符号出现概率大小逆序排列,则编码结果平均码字长度一定小于任何其他排列形式.,8.3 信息理论基础与熵编码,1霍夫曼编码,8.4 无误差压缩,根据变长最佳编码定理,Huffman编码

12、步骤如下: (1)将信源符号xi按其出现的概率,由大到小顺序排列. (2)将两个最小的概率的信源符号进行组合相加,并重复这一步骤,始终将较大的概率分支放在上部,直到只剩下一个信源符号且概率达到1.0为止; (3)对每对组合的上边一个指定为1,下边一个指定为0(或相反:对上边一个指定为0,下边一个指定为1); (4)画出由每个信源符号到概率1.0处的路径,记下沿路径的1和0; (5)对于每个信源符号都写出1、0序列,则从右到左就得到非等长的 Huffman码.,一幅2020的图像共有5个灰度级:s1,s2,s3,s4,和 s5,它们的概率依次为0.4,0.175,0.15,0.15和 0.125

13、。,例8.7,Huffman编码过程示意图,8.4 无误差压缩,编码结果,图像熵,编码后均码长,8.4 无误差压缩,Huffman编码的特点是: (1)Huffman编码构造程序是明确的,但编出的码不是唯一的,其原因之一是两个概率分配码字“0”和“1”是任意选择的(大概率为“0”,小概率为“1”,或者反之)。第二原因是在排序过程中两个概率相等,谁前谁后也是随机的。这样编出的码字就不是唯一的。(2)Huffman编码结果,码字不等长,平均码字最短,效率最高,但码字长短不一,实时硬件实现很复杂(特别是译码),而且在抗误码能力方面也比较差。(3)Huffman编码的信源概率是2的负幂时,效率达100

14、%,但是对等概率分布的信源,产生定长码,效率最低,因此编码效率与信源符号概率分布相关,故Huffman编码依赖于信源统计特性,编码前必须有信源这方面的先验知识,这往往限制了哈夫曼编码的应用。(4)Huffman编码只能用近似的整数位来表示单个符号,而不是理想的小数,这也是Huffman编码无法达到最理想的压缩效果的原因。,8.4 无误差压缩,算术编码不是将单个信源符号映射成一个码字,而是把整个信源表示为实数线上的0到1之间的一个区间(Interval),其长度等于该序列的概率,再在该区间内选择一个代表性的小数,转化为二进制作为实际的编码输出。消息序列中的每个元素都要缩短为一个区间。消息序列中元

15、素越多,所得到的区间就越小,当区间变小时,就需要更多的数位来表示这个区间。采用算术编码每个符号的平均编码长度可以为小数。,2.算术编码,8.4 无误差压缩,假设信源符号为00,01,10,11,这些符号的概率分别为 0.1,0.4, 0.2,0.3,根据这些概率可把间隔0,1)分成4个子间隔:0,0.1), 0.1,0.5), 0.5,0.7), 0.7, 1).符号 00 01 10 11 概率 0.1 0.4 0.2 0.3 初始编码间隔 0, 0.1) 0.1, 0.5) 0.5, 0.7) 0.7, 1) 如果二进制消息序列的输入为:10 00 11 00 10 11 01.,例8.8

16、,8.4 无误差压缩,步骤 输入 符号编码间隔 编码判决 1 10 0.5, 0.7) 符号的间隔范围0.5, 0.7) 2 00 0.5, 0.52) 0.5, 0.7)间隔的第一个1/10 3 11 0.514, 0.52) 0.5, 0.52)间隔的最后3个1/10 4 00 0.514, 0.5146) 0.514, 0.52)间隔的第一个1/10 5 10 0.5143, 0.51442) 0.514, 0.5146)间隔的第五个1/10开始, 二个1/10 6 11 0.514384, 0.51442) 0.5143, 0.51442)间隔的最后3个1/10 7 01 0.5143

17、836, 0.514402)0.514384, 0.51442)间隔的4个1/10, 从第1个1/10开始 8 从0.5143876, 0.514402中选择一个数作为输出:0.5143876,算术编码过程,8.4 无误差压缩,low = low+range * range_low range和low为上一个被编码符号的范围和低端值; high = low + range * range_high rang_low 和range_high为被编码符号已给定的出现概率范围的低端值和高端值.,算术编码过程示意图,8.4 无误差压缩,算术编码解码过程,步骤 间隔 译码符号 译码判决 1 0.5, 0

18、.7) 10 0.51439在间隔 0.5, 0.7) 2 0.5, 0.52) 00 0.51439在间隔 0.5, 0.7)的第1个1/10 3 0.514, 0.52) 11 0.51439在间隔0.5, 0.52)的第7个1/10 4 0.514, 0.5146) 00 0.51439在间隔0.514, 0.52)的第1个1/10 5 0.5143, 0.51442) 10 0.51439在间隔0.514, 0.5146)的第5个1/10 6 0.514384, 0.51442) 11 0.51439在间隔0.5143, 0.51442)的第7个1/10 0.51439, 0.5143

19、948) 01 0.51439在间隔0.514384, 0.51442)的第1个1/10 8 解码后消息序列:10 00 11 00 10 11 01,8.4 无误差压缩,首先计算valuek+1 = (valuek range_lowk ) /rangek 然后判断valuek+1 位于哪个范围,则得到对应编码.,译码判决方法:,算术编码的特点:,1. 实际的计算机精度有限,会产生溢出问题;2. 对整个消息只产生一个编码,因此译码器必须接受到这个实数后才能译码;3. 对错误很敏感.,8.4 无误差压缩,行程编码(Run Length Encoding)是一种利用空间冗余度压缩图像的方法,对某

20、些相同灰度级成片连续出现的图形,行程编码也是一种高效的编码方法。特别是对二值图像,效果尤为显著。 具有相同灰度值并且是连续的像素数目称为行程长度。,3. 行程编码,8.4 无误差压缩,一行图像行程编码示意图,8.4 无误差压缩,每一行图像都由k段长度为lk、灰度值为gi的片段组成,那么该行图像就可以由一系列的偶对(gi,li)来表示。每个偶对就是一个灰度级行程。,8.4 无误差压缩,4. LZW编码,一种处理图像的像素间冗余的无误差压缩技术.对信源符号的可变长度序列分配固定长度的码字,且不需要了解有关被编码符号 的出现概率的知识.基本思想是: 建立一个编码表,将输入字符串映射成定长的码字输出,

21、通常码长设为12比特,则可容纳4096个码字.如果将图像当做一个一维的比特串,编码图像也视为一个一维的比特串,算法在产生输出串的同时更新编码表,这样编码表可以更好地适应所压缩图像的特殊性质.,LZW编码算法的具体执行步骤如下: 步骤1: 将词典初始化为包含所有可能的单字符,当前前缀P初始化为空; 步骤2: 当前字符C 的内容为输入字符流中的下一个字符; 步骤3: 判断P+C是否在词典中 (1) 如果“是”, 则用C扩展P,即让P=PC; (2) 如果“否”,则 输出当前前缀P的码字到码字流; 将PC添加到词典中; 令前缀P = C (即现在的P仅包含一个字符C); 步骤4: 判断输入字符流中是

22、否还有码字要编码 (1) 如果“是”,就返回到步骤2; (2) 如果“否” 把当前前缀P的码字输出到码字流; 结束。,8.4 无误差压缩,位置 1 2 3 4 5 6 7 8 9 字符 A B B A B A B A C步骤 位置 词典 输出 (1) A (2) B(3) C1 1 (4)A B (1)2 2 (5)B B (2)3 3 (6) B A (2)4 4 (7)A B A (4)5 6 (8)A B A C (7)6 - - - (3),例8.9,8.4 无误差压缩,5. 无损预测编码,8.4 无误差压缩,预测编码数据压缩技术建立在信号(语音、图像等)数据的相关性上。根据某一模型,

23、利用以前的样本值对新样本进行预测,以此减少数据在时间和空间上的相关性,从而达到压缩的目的.,实际进行预测时,一般基于估计理论. 基本思想是通过对每个像素中新增的信息进行提取和编码,以此来消除空间上较为接近的像素之间的冗余.新增信息是指像素值与预测值之间的差异. 相邻像素之间具有较强的相关性,因此可以根据以前已知的几个像素来估计、猜测,即预测.,无损预测编码系统,8.4 无误差压缩,编码器,解码器,编码器和解码器中的预测器是相同的,预测误差,8.4 无误差压缩,误差通过符号编码器编码成压缩数据流的一个元素.,解压时,通过解码器解码后得到的en序列与解码端的预测值相加,再现序列fn,由于预测误差的

24、方差大大小于输入序列的方差,因此可以用较低的码率进行编码.,线性预测,是预测系数,8.4 无误差压缩,round为四舍五入函数,如果预测方案中的预测系数是固定不变的常数,则称为线性预测。,m称为线性预测器的阶。,不能对前m个像素预测,需要用其他方式编码,称为预测编码的额外开销。,如果,不是上式所示的线性组合关系,而是非线性关系,则称为非线性预测。,在图像数据压缩中,常用如下几种线性预测方案: (1)前值预测,即 (2)一维预测,即用同一扫描行的前面几个采样值预测。 (3)二维预测,即不但用同一扫描行的前面几个采样值,还要用前几行中的采样值一起来预测。,8.4 无误差压缩,二维预测示意图,8.4

25、 无误差压缩,考虑一维预测,前值预测器,对于数字图像:,x,y,对Lena图像进行无损的一阶预测编码和解码,例8.10,预测误差图像,8.4 无误差压缩,原始图像,原图直方图 预测误差图像直方图,例8.10,8.4 无误差压缩,通过计算可知,预测误差图像的熵(5.0379)比原始图像的熵(7.5940)更小。 熵的减少反映了通过预测编码处理消除了大量的冗余。,8.4 无误差压缩,无损预测编码得到的压缩量与输入图像映射到预测误差序列后熵减少有直接的关系。因为通过预测和差分处理,消除了大量的像素间的冗余,因此,预测误差的概率分布在零处有一个很高的峰值,并且与输入灰度值相比其方差较小。原图的标准方差为:52.8775 预测误差图像的标准方差为:13.5670,

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 企业管理 > 管理学资料

本站链接:文库   一言   我酷   合作


客服QQ:2549714901微博号:道客多多官方知乎号:道客多多

经营许可证编号: 粤ICP备2021046453号世界地图

道客多多©版权所有2020-2025营业执照举报