图像压缩的基本概念
- 数据冗余:表示图像需要大量的数据,例如 512×512×8bit×3色的电视图像,用56k波特在电话线上传输,单幅图像传输需要2分钟左右,这通常是不能接受的。但图像数据是高度相关的, 或者说存在冗余(Redundancy)信息,去掉这些冗余信息后可以有效压缩图像, 同时又不会损害图像的有效信息。
- 数字图像本身的特征带来数据压缩的可能性
- 应用环境允许图像有一定程度失真
- 频域冗余 将空域的图像变换到频域中,使得大量的信息能用较少的数据来表示,从而达到压缩的目的。
- 信息熵冗余 图像中像素灰度出现的不均匀性,造成图像信息熵冗余。即用同样长度比特表示每一个灰度,则必然存在冗余。若将出现概率大的灰度级用长度较短的码表示,将出现概率小的灰度级用长度较长的码表示,有可能使编码总长度下降
- 保真度标准:
- 客观保真度标准:用数学形式表述图像压缩过程对图像信息的损失。
- 主观保真度标准:
- 信息量和熵:
- 编码效率和冗余度:
PCM编码
- PCM -脉冲编码调制:
- 低通滤波器的作用:
- 满足取样定理的带限要求。
- 对噪声有一定的抑制作用。
- 取样与量化
- 取样是空间上的离散化。
- 量化器是信号幅度上的离散化。
- 编码器:把多值的数字信号变成二进制的数字信号,以便于后续处理。
- 低通滤波:对量化噪声有一定的抑制作用。在接收端得到重建的图像信号。
无损压缩
- 哈夫曼编码算法 哈夫曼编码是以信源概率分布为基础的, 但一般无法事先知道信源的概率分布,通常采用对大量数据进行统计后得到的近似分布来代替, 这样会导致实际应用时哈夫曼编码无法达到最佳性能。通过利用根据输入数据序列自适应地匹配信源概率分布的方法,可以较好地改进哈夫曼编码的性能。哈夫曼编码的一般算法如下:
- 首先统计信源中各符号出现的概率, 按符号出现的概率从大到小排序。
- 把最小的两个概率相加合并成新的概率, 与剩余的概率组成新的概率集合。
- 对新的概率集合重新排序, 再次把其中最小的两个概率相加, 组成新的概率集合。如此重复进行, 直到最后两个概率的和为1。
- 分配码字。码字分配从最后一步开始反向进行,对两个概率一个赋予0、一个赋予1。如此反向进行到开始的概率排列。在此过程中,若概率不变仍用原码字。若概率分裂为两个,其码字前几位仍用原来的,码字的最后一位码字一个赋予0、一个赋予1。
- 行程编码:
- 无损预测编码:
有损压缩
- 有损压缩是: • 通过牺牲图像的准确率来达到加大压缩率的目的 • 如果我们容忍解压缩后的结果中有一定的误差,那么压缩率可 以显著提高
- 有损压缩方法的压缩比: • 在图像压缩比大于30:1时,仍然能够重构图像 • 在图像压缩比为10:1到20:1时,重构图像与原图几乎没有差别 • 无损压缩的压缩比很少有能超过3:1的
- 这两种压缩方法的根本差别在于有没有量化模块
- 减少数据量的最简单的办法是将图像量化成较少的灰度级,通过减少图像的灰度级来实现图像的压缩
- 这种量化是不可逆的,因而解码时图像有损失
- 量化器的定义:
- 变换编码的基本思想:
压缩标准
- JPEG基本系统编码:
- JPEG编码实例:
我的微信公众号名称:深度学习与先进智能决策 微信公众号ID:MultiAgent1024 公众号介绍:主要研究分享深度学习、机器博弈、强化学习等相关内容!期待您的关注,欢迎一起学习交流进步!
评论(0)
您还未登录,请登录后发表或查看评论