留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于解析字典的图像压缩方法

冯宗伟 种衍文 郑炜玲 潘少明

冯宗伟, 种衍文, 郑炜玲, 潘少明. 基于解析字典的图像压缩方法[J]. 武汉大学学报 ● 信息科学版, 2018, 43(2): 262-267, 274. doi: 10.13203/j.whugis20160085
引用本文: 冯宗伟, 种衍文, 郑炜玲, 潘少明. 基于解析字典的图像压缩方法[J]. 武汉大学学报 ● 信息科学版, 2018, 43(2): 262-267, 274. doi: 10.13203/j.whugis20160085
FENG Zongwei, ZHONG Yanwei, ZHENG Weiling, PAN Shaoming. Image Compression Algorithm Based on Analysis Dictionary[J]. Geomatics and Information Science of Wuhan University, 2018, 43(2): 262-267, 274. doi: 10.13203/j.whugis20160085
Citation: FENG Zongwei, ZHONG Yanwei, ZHENG Weiling, PAN Shaoming. Image Compression Algorithm Based on Analysis Dictionary[J]. Geomatics and Information Science of Wuhan University, 2018, 43(2): 262-267, 274. doi: 10.13203/j.whugis20160085

基于解析字典的图像压缩方法

doi: 10.13203/j.whugis20160085
基金项目: 

国家自然科学基金 61572372

国家自然科学基金 41671382

国家自然科学基金 41271398

上海航天科技创新基金 SAST201425

详细信息
    作者简介:

    冯宗伟, 硕士, 主要计算机视觉和图像处理算法研究。fengzongwei@yeah.net

    通讯作者: 种衍文, 博士, 教授。ywchong@whu.edu.cn
  • 中图分类号: TP751;P231

Image Compression Algorithm Based on Analysis Dictionary

Funds: 

The National Natural Science Foundation of China 61572372

The National Natural Science Foundation of China 41671382

The National Natural Science Foundation of China 41271398

the Fund of SAST SAST201425

More Information
    Author Bio:

    FENG Zongwei, master, specializes in computer vision and image processing. E-mail: fengzongwei@yeah.net

    Corresponding author: CHONG Yanwen, PhD, professor. E-mail: ywchong@whu.edu.cn
  • 摘要: 随着高分辨率图像采集技术的发展,采集图像的数据量大幅增加给图像的压缩、存储和传输带来了严重的挑战。近年来,压缩感知理论以能够通过少量观测信号高精度重建原始信号的优势给图像压缩带来了新的思路。目前压缩感知理论的研究主要集中于综合模型,然而综合模型下图像数据的稀疏表示却存在着计算量大、耗时长的问题。提出了基于解析字典的图像压缩模型。在分析综合模型字典学习方法的基础上介绍了解析模型字典学习的流程,然后详细分析了基于解析字典的图像压缩的总流程。以标准测试库自然图像为数据对模型的重构质量和系统耗时进行了分析,结果表明,本文所提模型在采样率相同的情况下,相对其他模型不仅能够缩短系统的耗时,也提高了图像重构的准确性。
  • 图  1  各类模型下不同采样率的图像重构结果(采样率分别为0.05、0.10、0.30)

    Figure  1.  The Reconstruction Quality of the Different Models on the Different Compression Ratio (Compression Ratio: 0.05, 0.10, 0.30)

    图  2  不同模型下压缩重构峰值信噪比对比图

    Figure  2.  The PSNR Under Different Models

    图  3  不同模型下压缩重构结构相似度对比图

    Figure  3.  The Value of SSIM Under Different Models

    表  1  解析字典学习算法

    Table  1.   Analysis Dictionary Learning

    输入:训练数据集X分块后的数据XΓ,初始化字典Ω0,最高迭代次数K,冗余误差范围ε
    输出:最后学习字典Ω
    算法:
      1)初始化参数i=0,Ω1=Ω0
        ①计算数据在当前字典下的稀疏表示系数:Si=ΩiXΓ
        ②利用GOAL算法获取字典:Ωi+1Ωi
        ③计算误差因子值r=‖SiΩiXΓ2+‖ΩilΩi-I2
        ④判断rε且迭代次数iK,当满足条件时i=i+1重复①-③步骤,否则跳出循环;
      2)获得最终的解析字典Ω=Ωi
    下载: 导出CSV

    表  2  ALDBCS模型压缩算法

    Table  2.   ALDBCSbased Compression Approach

    输入:原始图像数据X,解析字典Ω,误差冗余度系数σ
    输出:解码端最终图像数据$\boldsymbol{\hat X} $,压缩比r
    算法:
    编码端:①对图像数据进行分块处理,利用大小相等B×B的模板块对图像进行分块,获得分块后的数据XΓRd×Q(Q为图像分块后的个数,其值为图像总体大小除以分块大小获得)
    ②对数据进行稀疏表示SΓ=ΩXΓ,获取稀疏表示系数矩阵SΓ
    ③对稀疏系数进行最优化选择,满足当‖siΓŜiΓ2σ退出选择,获得最优化稀疏系数矩阵;
    ④计算最优化稀疏系数矩阵中非0项的个数N,则r=N/图像尺寸;
    解码端:①利用编码端的最优稀疏系数矩阵利用$\boldsymbol{\hat X} $Γ=ΩΛlŜ获取重构的分块数据;
    ②对分块数据进行分块恢复获取最终重建图像$\boldsymbol{\hat X} $
    下载: 导出CSV

    表  1  最优化稀疏表示误差冗余参数σ对结果的影响

    Table  1.   The Effect of the Parameter σ

    分类 σ取值
    1.5 0.5 0.1 0.01
    采样率 0.057 0.095 0.210 0.654 89
    峰值信噪比 32.280 34.620 37.850 40.380 50
    结构相似度 0.810 0.890 0.950 0.983 46
    下载: 导出CSV

    表  2  不同模型下重构图像的峰值信噪比值分析/dB

    Table  2.   The Analysis of PSNR of Reconstructed Images based on Different Models/dB

    算法 采样率(M/N)
    0.10 0.20 0.30
    图像
    Lenna
    基于CT变换 28.08 30.97 32.94
    基于DCT变换 27.67 30.49 32.48
    基于DWT变换 27.69 30.85 32.99
    基于DDWT变换 28.08 31.35 33.45
    CSLD模型 27.24 32.35 37.71
    BCSLD模型 34.70 37.22 37.60
    ALDBCS模型 35.16 38.24 39.04
    图像
    Barbara
    基于CT变换 22.70 24.26 25.84
    基于DCT变换 22.75 24.37 25.89
    基于DWT变换 22.49 23.83 25.08
    基于DDWT变换 22.59 24.14 25.67
    CSLD模型 14.71 16.27 17.32
    BCSLD模型 20.01 25.33 31.97
    ALDBCS模型 31.77 33.18 34.15
    图像
    Peppers
    基于CT变换 28.43 31.47 33.22
    基于DCT变换 26.49 28.49 30.73
    基于DWT变换 28.68 31.72 33.45
    基于DDWT变换 28.99 32.01 33.73
    CSLD模型 15.97 17.81 18.93
    BCSLD模型 27.87 32.09 36.66
    ALDBCS模型 34.99 37.46 38.39
    下载: 导出CSV

    表  3  不同模型下图像压缩重构耗时分析/s

    Table  3.   The Analysis of Time Consumption of Different Models/s

    算法 采样率(M/N)
    0.10 0.20 0.30
    图像
    Lenna
    CSLD模型 26.41 44.39 50.52
    BCSLD模型 313.07 697.87 987.68
    ALDBCS模型 3.61 3.97 3.93
    图像
    Barbara
    CSLD模型 52.60 124.52 254.79
    BCSLD模型 475.97 1 648.40 3 045.80
    ALDBCS模型 3.83 3.79 3.96
    图像
    Peppers
    CSLD模型 48.25 120.46 258.52
    BCSLD模型 453.40 1508.50 2952.40
    ALDBCS模型 3.44 3.77 4.22
    下载: 导出CSV
  • [1] Donoho D L.Compressed Sensing[J].IEEE Transactions on Information Theory, 2006, 52(4):1289-1306 doi:  10.1109/TIT.2006.871582
    [2] Candes E J, Romberg J, Tao T.Robust Uncertainty Principles:Exact Signal Reconstruction from Highly Incomplete Frequency Information[J].IEEE Transaction on Information Theory, 2006, 52(2):489-509 doi:  10.1109/TIT.2005.862083
    [3] 焦李成, 杨淑媛, 刘芳, 等.压缩感知回顾与展望[J].电子学报, 2011, 39(7):1651-1662 http://www.doc88.com/p-330731702475.html

    Jiao Licheng, Yang Shuyuan, Liu Fang, et al. Development and Prospect of Compressive Sensing[J].Acta Electronica Sinica, 2011, 39(7):1651-1662 http://www.doc88.com/p-330731702475.html
    [4] 练秋生, 石保顺, 陈书贞.字典学习模型、算法及其应用研究进展[J].自动化学报, 2015, 41(2):240-260 https://www.cnki.com.cn/qikan-JZDF201606005.html

    Lian Qiusheng, Shi Baoshun, Chen Shuzhen. Research Advances on Dictionary Learning Models, Algorithms and Applications[J].Acta Automatica Sinica, 2015, 41(2):240-260 https://www.cnki.com.cn/qikan-JZDF201606005.html
    [5] Elad M, Milanfar P, Rubinstein R. Analysis Versus Synthesis in Signal Priors[J]. Inverse Problems, 2007, 23(3):947-968 doi:  10.1088/0266-5611/23/3/007
    [6] Rubinstein R, Bruckstein A M, Elad M. Dictionaries for Sparse Representation Modeling[J].Proceedings of the IEEE, 2010, 98(6):1045-1057 doi:  10.1109/JPROC.2010.2040551
    [7] Nam S, Davies M E, Elad M, Gribonval R. The Cosparse Analysis Model and Algorithms[J]. Applied and Computational Harmonic Analysis, 2013, 34(1):30-56 doi:  10.1016/j.acha.2012.03.006
    [8] Rubinstein R, Elad M. K-SVD Dictionary Learning for Analysis Sparse Models[J]. IEEE International Conference on Acoustics, Speech & Signal Processing, 2012, 22(10):5405-5408 http://www.cs.technion.ac.il/~elad/talks/2011/Analysis_Edinburgh_2011.pdf
    [9] Rubinstein R, Peleg T, Elad M. Analysis K-SVD:A Dictionary Learning Algorithm for the Analysis Sparse Model[J]. IEEE Transactions on Signal Processing, 2013, 61(3):661-677 doi:  10.1109/TSP.2012.2226445
    [10] Rubinstein R. Elad M, Dictionary Learning for Analysis-Synthesis Thresholding[J].IEEE Transactions on Signal Processing, 2014, 62(22):5962-5972 doi:  10.1109/TSP.2014.2360157
    [11] Ring W, Wirth B. Optimization Methods on Riemannian Manifolds and their Application to Shape Space[J].Soc.Indian Autom. Manuf. J. Optimi, 2012, 22(2):596-627 doi:  10.1137/11082885X
    [12] Hawe S, Kleinsteuber M, Diepold K. Analysis Operator Learning and its Application to Image Reconstruction[J].IEEE Transactions on Image Processing, 2013, 22(6):2138-2150 doi:  10.1109/TIP.2013.2246175
    [13] Lu G. Block Compressed Sensing of Natural Images[C]. Proceedings of the International Conference on Digital Signal Processing, Cardiff, UK, 2007 http://ieeexplore.ieee.org/document/4288604/
    [14] Fowler E J, Mun S, Tramel E W. Multiscale Block Compressed Sensing with Smoothed Projected Landweber Reconstruction[C]. 19th European Signal Processing Conference (EUSIPCO 2011), Eurasip, Spain, 2011 http://ieeexplore.ieee.org/document/7073994/
    [15] Lorintiu O, Liebgott H, Alessandrini M, et al. Compressed Sensing Reconstruction of 3D Ultrasound Data Using Dictionary Learning and Line-Wise Subsampling[J].IEEE Transactions on Medical Imaging, 2015, 34(12):2467-2477 doi:  10.1109/TMI.2015.2442154
    [16] Mun S, Fowler J E, Block Compressed Sensing of Images Using Directional Transforms[C]. Proceedings of the International Conference on Image Processing, Cairo, Egypt, 2009 http://ieeexplore.ieee.org/document/5414429
  • [1] 齐珂, 曲国庆, 苏晓庆, 薛树强, 刘以旭, 杨文龙.  水下声纳定位浮标阵列解析优化 . 武汉大学学报 ● 信息科学版, 2019, 44(9): 1312-1319. doi: 10.13203/j.whugis20170331
    [2] 丁磊香, 许厚泽, 王勇, 柴华, 孙亚飞, 蔡小波.  静基座捷联惯导解析法对准研究 . 武汉大学学报 ● 信息科学版, 2018, 43(2): 201-206. doi: 10.13203/j.whugis20160045
    [3] 邱益鸣, 廖海斌, 陈庆虎.  基于鉴别字典学习的遮挡人脸姿态识别 . 武汉大学学报 ● 信息科学版, 2018, 43(2): 275-281, 288. doi: 10.13203/j.whugis20150298
    [4] 鹿璇, 汪鼎文, 石文轩.  利用在线字典学习实现图像超分辨率重建的算法 . 武汉大学学报 ● 信息科学版, 2018, 43(5): 719-725. doi: 10.13203/j.whugis20150753
    [5] 徐健, 常志国, 张小丹.  采用交替K-奇异值分解字典训练的图像超分辨率算法 . 武汉大学学报 ● 信息科学版, 2017, 42(8): 1137-1143. doi: 10.13203/j.whugis20150095
    [6] 廖海斌, 陈友斌, 陈庆虎.  基于非局部相似字典学习的人脸超分辨率与识别 . 武汉大学学报 ● 信息科学版, 2016, 41(10): 1414-1420. doi: 10.13203/j.whugis20140498
    [7] 李建成, 徐新禹, 赵永奇, 万晓云.  由GOCE引力梯度张量不变量确定卫星重力模型的半解析法 . 武汉大学学报 ● 信息科学版, 2016, 41(1): 21-26. doi: 10.13203/j.whugis20150554
    [8] 翟振和, 王兴涛, 李迎春.  解析延拓高阶解的推导方法与比较分析 . 武汉大学学报 ● 信息科学版, 2015, 40(1): 134-138.
    [9] 丰江帆, 宋虎.  利用随机图语法的地理视频运动要素解析 . 武汉大学学报 ● 信息科学版, 2014, 39(2): 206-209. doi: 10.13203/j.whugis20120711
    [10] 刘鹂, 李金岭.  中国VLBI网测站参数解析 . 武汉大学学报 ● 信息科学版, 2014, 39(3): 262-266. doi: 10.13203/j.whugis20120005
    [11] 黄谟涛, 欧阳永忠, 翟国君, 刘传勇.  海域多源重力数据融合处理的解析方法 . 武汉大学学报 ● 信息科学版, 2013, 38(11): 1261-1265.
    [12] 唐旭日, 陈小荷, 张雪英.  中文文本的地名解析方法研究 . 武汉大学学报 ● 信息科学版, 2010, 35(8): 930-935.
    [13] 朱长青, 王志伟, 刘海砚.  基于重构等高线的DEM精度评估模型 . 武汉大学学报 ● 信息科学版, 2008, 33(2): 153-156.
    [14] 王磊, 翟国君, 黄谟涛, 孟婵媛.  北斗海上无源定位解析求解新方法 . 武汉大学学报 ● 信息科学版, 2008, 33(6): 635-638.
    [15] 李德仁, 宁晓刚.  一种新的基于内容遥感图像检索的图像分块策略 . 武汉大学学报 ● 信息科学版, 2006, 31(8): 659-662.
    [16] 申文斌, 宁津生.  虚拟压缩恢复基本原理及应用实例解析 . 武汉大学学报 ● 信息科学版, 2005, 30(6): 474-477.
    [17] 邵海梅, 李飞鹏, 秦前清.  基于五株采样提升算法的图像二叉分解与重构 . 武汉大学学报 ● 信息科学版, 2004, 29(7): 628-631,634.
    [18] 周世健, 官云兰, 鲁铁定, 臧德彦.  误差分布的解析拟合 . 武汉大学学报 ● 信息科学版, 2001, 26(5): 455-458.
    [19] 李德仁, 程家瑜, 许妙忠, 王树根.  SPOT影象的解析摄影测量处理 . 武汉大学学报 ● 信息科学版, 1988, 13(4): 28-36.
    [20] 航五象片导线测量毕业设计小组.  机械法及图解-解析法象片导线测量 . 武汉大学学报 ● 信息科学版, 1960, 4(1): 59-67.
  • 加载中
图(3) / 表(5)
计量
  • 文章访问数:  1637
  • HTML全文浏览量:  112
  • PDF下载量:  353
  • 被引次数: 0
出版历程
  • 收稿日期:  2016-11-16
  • 刊出日期:  2018-02-05

基于解析字典的图像压缩方法

doi: 10.13203/j.whugis20160085
    基金项目:

    国家自然科学基金 61572372

    国家自然科学基金 41671382

    国家自然科学基金 41271398

    上海航天科技创新基金 SAST201425

    作者简介:

    冯宗伟, 硕士, 主要计算机视觉和图像处理算法研究。fengzongwei@yeah.net

    通讯作者: 种衍文, 博士, 教授。ywchong@whu.edu.cn
  • 中图分类号: TP751;P231

摘要: 随着高分辨率图像采集技术的发展,采集图像的数据量大幅增加给图像的压缩、存储和传输带来了严重的挑战。近年来,压缩感知理论以能够通过少量观测信号高精度重建原始信号的优势给图像压缩带来了新的思路。目前压缩感知理论的研究主要集中于综合模型,然而综合模型下图像数据的稀疏表示却存在着计算量大、耗时长的问题。提出了基于解析字典的图像压缩模型。在分析综合模型字典学习方法的基础上介绍了解析模型字典学习的流程,然后详细分析了基于解析字典的图像压缩的总流程。以标准测试库自然图像为数据对模型的重构质量和系统耗时进行了分析,结果表明,本文所提模型在采样率相同的情况下,相对其他模型不仅能够缩短系统的耗时,也提高了图像重构的准确性。

English Abstract

冯宗伟, 种衍文, 郑炜玲, 潘少明. 基于解析字典的图像压缩方法[J]. 武汉大学学报 ● 信息科学版, 2018, 43(2): 262-267, 274. doi: 10.13203/j.whugis20160085
引用本文: 冯宗伟, 种衍文, 郑炜玲, 潘少明. 基于解析字典的图像压缩方法[J]. 武汉大学学报 ● 信息科学版, 2018, 43(2): 262-267, 274. doi: 10.13203/j.whugis20160085
FENG Zongwei, ZHONG Yanwei, ZHENG Weiling, PAN Shaoming. Image Compression Algorithm Based on Analysis Dictionary[J]. Geomatics and Information Science of Wuhan University, 2018, 43(2): 262-267, 274. doi: 10.13203/j.whugis20160085
Citation: FENG Zongwei, ZHONG Yanwei, ZHENG Weiling, PAN Shaoming. Image Compression Algorithm Based on Analysis Dictionary[J]. Geomatics and Information Science of Wuhan University, 2018, 43(2): 262-267, 274. doi: 10.13203/j.whugis20160085
  • 随着计算机视觉技术的不断发展,图像作为视觉信息的载体受到广大学者的关注。但高分辨率、高光谱影像技术的发展,给图像传输及保存带来了严重的挑战。近年来,压缩感知理论(compressed sensing, CS)逐渐受到国内外学者的广泛关注。目前对图像在变换基下的稀疏表示研究大致可分为综合模型和解析模型两类。

    综合模型[1-3]将稀疏表示的过程定义为X=DS, s.t.‖si0k,其中D为过完备字典,S为图像在当前过完备字典下的稀疏表示系数矩阵,si为图像X中图像局部数据xi所对应的系数向量。求解最佳稀疏表示的过程中,通过限定S中每个元素si的非零元素个数小于k,来实现图像在过完备字典D下的k稀疏表示。近几年, 解析模型作为一种新颖的稀疏表示方式受到学者的广泛关注,在研究中又称为共稀疏解析模型(cosparse analysis model)[4-7]。共稀疏解析模型将稀疏表示的过程定义为S=ΩX, s.t.‖si0pl,其中X为待稀疏表示的图像信号集,Ω为当前的解析字典,S则为图像信号集X在当前解析字典Ω下的稀疏表示系数矩阵,si为稀疏系数矩阵中的列向量,psi的行数,lsi中零的个数, 又称为共稀疏度,则通过限定sil0范数小于pl来实现信号的稀疏表示过程。

    X=DS, s.t.‖si0kS=ΩX, s.t.‖si0pl可知,当DΩ同为方阵时,两者可以实现等价替换Ω=D-1;当DΩ同为过完备字典时,则DRm×n(mn),ΩRp×q(p>q),从而两者不再是简单的互逆过程,其两者之间完全不同。由X=DS, s.t.‖si0kS=ΩX, s.t.‖si0pl可知,在获得相同维度的稀疏系数矩阵时,解析模型包含更多的子空间数量,有更加丰富灵活的表示性能。同时,通过字典与信号进行矩阵相乘求内积的方式,实现解析模型稀疏表示的过程,即S=ΩX, s.t.‖si0pl,这样,相对综合模型减少了大量的运算过程,从而提高计算效率,因此解析模型在图像的稀疏表示及压缩过程中将更具优势。基于这个原因,解析模型在图像处理中越来越受到关注[8-12]

    尽管目前基于CS理论的研究越来越多,但研究大多集中于图像的去噪、重建等,对图像压缩的研究尚处于起始阶段。文献[13]提出了基于分块的图像感知压缩方法; 文献[14]等提出了多尺度图像重构算法; 文献[15]通过CS理论去除了部分原始数据,从而提高了对图像数据的处理速度。文献[16]通过实验验证了其在图像压缩处理中的优势。

    由于目前图像感知压缩研究尚处于起始阶段,研究的重点仍然以基于数学变换的变换基为主,基于学习字典的图像感知压缩方法仍然很少。然而基于数学变换的图像压缩模型在压缩过程中计算量大,无法实现对数据的高精度稀疏表示。随着字典学习算法的兴起,结合学习字典在图像数据稀疏表示中的优势,针对基于变换的图像压缩模型和基于综合模型的稀疏表示中计算量大、耗时长的问题,本文将解析字典引入到图像分块压缩的过程中,提出了基于解析字典的图像压缩模型(image compression algorithm based on analysis dictionary,ALDBCS),旨在通过解析模型的优势减少时间消耗。为了能够进一步提高压缩的效率,本文将图像数据之间的相似性应用到ALDBCS模型中,提出了基于数据聚类的解析字典图像压缩模型(cluster-ALDBCS)。

    • 考虑到字典学习在压缩系统中的耗时,本文将基于解析字典的分块图像压缩模型分为线下解析字典学习和利用学习获得的解析字典进行图像压缩两部分。解析字典的学习算法设计是通过训练数据学习获得解析字典的过程,而基于解析字典图像压缩模型和基于数据聚类的解析字典图像压缩模型则是从解析字典如何在压缩流程中的应用的角度分析解析字典的优势。

    • 由共稀疏解析模型表达式S=ΩX,利用给定的训练图像数据X获取解析字典ΩRp×m的过程可转化为求解式(1)来实现:

      $$ {\rm{Arg}}\mathop {\min }\limits_{S,\mathit{\Omega} } {\left\| {\boldsymbol{S} - \boldsymbol{\varOmega X}} \right\|_2},{\rm{s}}{\rm{.t}}.{\left\| {{\boldsymbol{S}_{:,j}}} \right\|_0} = p - l $$ (1)

      式中, XRm×n为所给定的训练数据集; ΩRp×m为通过训练数据集待学习的字典,其中p>m表示字典Ω为过完备字典,使得在相同维度m情况下,p越大则图像在稀疏表示过程中可选择的子空间原子越充分,从而有利于提高数据稀疏表示的精度。S={s1, s2, ..., sN}∈Rp×n为通过训练数据集在学习获得的字典Ω下的稀疏表示系数矩阵,‖·‖0和‖·‖2分别表示求解所包含内容的l0范数和l2范数。‖S:, j0=pl表示S中第j列的非零元素个数,l则为当前列的共稀疏度。${\rm{Arg}}\mathop {\min }\limits_{S,\mathit{\Omega} } {\left\| {\boldsymbol{S} - \boldsymbol{\varOmega X}} \right\|_2} $则刻画了学习获得的字典及在当前字典下稀疏表示时的误差因子,当满足‖SΩX2达到最优化条件时则获取最优化的字典原子。

      然而,在求解式(1)的过程中难免会得到诸如Ω=0的不满足要求的解,因此为了限定求解的准确性,式(1)引入了对字典Ω的限定条件,使得Ω中每行对应的原子Ωi, :满足‖Ωi, :2=1,同时为了验证当前字典对原始数据的适应程度,本文中在式(1)的基础上引入了‖$ \boldsymbol{\hat X}$-X2作为考察字典对原始数据适应性的能力,其中$ \boldsymbol{\hat X}$=ΩlΩXΩl为当前使用字典Ω的伪逆矩阵,$ \boldsymbol{\hat X}$为当前字典及稀疏系数矩阵重建获取的数据,因此将‖$ \boldsymbol{\hat X}$-X2引入代价函数中,由于‖$ \boldsymbol{\hat X}$-X2可转化为:

      $$ \begin{array}{l} {\rm{Arg}}\mathop {\min }\limits_{\boldsymbol{\hat X}} {\left\| {\boldsymbol{\hat X} - \boldsymbol{X}} \right\|_2} = {\rm{Arg}}\mathop {\min }\limits_\boldsymbol{\varOmega} {\left\| {{\boldsymbol{\varOmega} ^l}\boldsymbol{\varOmega X} - \boldsymbol{X}} \right\|_2}\\ = {\rm{Arg}}\mathop {\min }\limits_\boldsymbol{\varOmega} {\left\| {{\boldsymbol{\varOmega} ^l}\boldsymbol{\varOmega} - \boldsymbol{I}} \right\|_2} \end{array} $$

      则式(1)转化为:

      $$ \begin{array}{l} {\rm{Arg}}\mathop {\min }\limits_{S,\mathit{\Omega} } {\left\| {\boldsymbol{S} - \boldsymbol{\varOmega X}} \right\|_2} + {\left\| {{\boldsymbol{\varOmega} ^l}\boldsymbol{\varOmega} - \boldsymbol{I}} \right\|_2}\\ {\rm{s}}{\rm{.t}}.{\left\| {{\boldsymbol{S}_{:,j}}} \right\|_0} = p - l,{\left\| {{\boldsymbol{\varOmega} _{i,:}}} \right\|_2} = 1 \end{array} $$ (2)

      由式(2)可知,求解字典及稀疏系数就是通过训练数据集X获取两个变量SΩ的过程。对比于综合模型的字典学习方法[14],式(2)求解过程也可分为固定S更新Ω和固定ΩS两个步骤。在求解过程中字典的更新和稀疏系数的获取类比于文献[12]中几何解析算子学习方法(geometric operator analytic learning, GOAL)详细的计算步骤。详细的解析字典学习方法如表 1所示。

      表 1  解析字典学习算法

      Table 1.  Analysis Dictionary Learning

      输入:训练数据集X分块后的数据XΓ,初始化字典Ω0,最高迭代次数K,冗余误差范围ε
      输出:最后学习字典Ω
      算法:
        1)初始化参数i=0,Ω1=Ω0
          ①计算数据在当前字典下的稀疏表示系数:Si=ΩiXΓ
          ②利用GOAL算法获取字典:Ωi+1Ωi
          ③计算误差因子值r=‖SiΩiXΓ2+‖ΩilΩi-I2
          ④判断rε且迭代次数iK,当满足条件时i=i+1重复①-③步骤,否则跳出循环;
        2)获得最终的解析字典Ω=Ωi
    • 对应于传统的图像压缩系统,ALDBCS模型也包括编码端和解码端两部分。编码端是对应于对原始图像数据的压缩过程,可分为图像数据稀疏表示、最优化稀疏选择及原子空间集选择和量化熵编码三部分。解码端则对应于图像的重构部分,包括数据的熵解码反量化和数据重构两部分。

      图像数据的稀疏表示处理是应用学习字典对图像进行稀疏表示的过程。由共稀疏模型S=ΩX可知,S为当前数据X在学习获得的解析字典Ω下的稀疏系数矩阵。设数据XRm×nmn分别表示图像的高和宽。由共稀疏表示模型S=ΩX可知,字典Ω的尺寸受到数据X的限制,字典Ω维度满足ΩRp×m(p>m)。由于m的维度较大,因此使得字典的整体维度过大不利于存储与计算。因此,为了减少字典Ω的尺寸,本文在处理数据时首先利用B×B大小的块对数据进行了分块处理,获得XΓRd×Q(d=B×B),这样在数据量不变的情况下将待压缩数据分成了d×Q个小块数据,且使得d$ \ll $m,进而使得字典Ω的维度大幅度减少,从而减少了大量的存储空间,利于系统的整体实现。同时,为了减少因字典学习过程带来的时间消耗,本文中字典学习的模块采用线下学习的方法。

      数据最优稀疏选择及字典原子子空间的获取则是对稀疏表示系数进行分析获取的。由共稀疏模型S=ΩX可知,SΓ可以通过字典Ω与待处理数据XΓ内积得到,即通过SΓ=ΩXΓ,因此对于SΓ中每一列SiΓ,其每个元素Sj, iΓ(j=1, 2, …p)的绝对值决定了字典Ω中字典原子与数据的相关性,因此在选择最优化稀疏系数时,本文根据SiTST中元素大小选择最优化系数,在选择最优化系数的同时将最优化系数所对应的原子空间提取出来作为当前数据重建端的字典ΩA,使得重建精度能够更高。最优化系数选择中,本文利用原始稀疏表示系数向量与通过最优化系数选择后的稀疏表示系数向量的差值,作为判断循环停止条件。系数选择时,从SiΓ中按照系数绝对值递减的顺序进行选择,每选择一个系数之后计算|‖siΓŜiΓ2σ的值,当不满足‖siΓŜiΓ2σ时,则继续选择排序中下一个系数;当满足‖siΓŜiΓ2σ时则跳出循环,系数最优化选择步骤结束,并将SiΓSΓ中其他元素置为0,从而获取最终的稀疏表示系数矩阵ŜΓ。系数最优化选择过程将系数矩阵中绝大部分系数置为0,从而在传输过程中实现压缩的目的。

      系统的解码端对应于利用编码端传输后的数据进行信号的重构,在模型中由于稀疏系数矩阵通过SΓ=ΩXΓ获得,则ŜΓ获取可通过ŜΓ=ΩAXΓ加以表示,因此最终的恢复信号$\boldsymbol{\hat X} $Γ通过求解$\boldsymbol{\hat X} $Γ=ΩΛlŜΓ获取,其中ΩΛlΩΛ的伪逆。由于XΓ为原始图像经过分块后获得的分块数据,因此模型最终要将重构得到的分块数据$\boldsymbol{\hat X} $Γ按照逆分块的流程还原为原始格式的图像数据,从而获得$\boldsymbol{\hat X} $。按照ALDBCS模型的流程可将压缩流程通过表 2加以描述。

      表 2  ALDBCS模型压缩算法

      Table 2.  ALDBCSbased Compression Approach

      输入:原始图像数据X,解析字典Ω,误差冗余度系数σ
      输出:解码端最终图像数据$\boldsymbol{\hat X} $,压缩比r
      算法:
      编码端:①对图像数据进行分块处理,利用大小相等B×B的模板块对图像进行分块,获得分块后的数据XΓRd×Q(Q为图像分块后的个数,其值为图像总体大小除以分块大小获得)
      ②对数据进行稀疏表示SΓ=ΩXΓ,获取稀疏表示系数矩阵SΓ
      ③对稀疏系数进行最优化选择,满足当‖siΓŜiΓ2σ退出选择,获得最优化稀疏系数矩阵;
      ④计算最优化稀疏系数矩阵中非0项的个数N,则r=N/图像尺寸;
      解码端:①利用编码端的最优稀疏系数矩阵利用$\boldsymbol{\hat X} $Γ=ΩΛlŜ获取重构的分块数据;
      ②对分块数据进行分块恢复获取最终重建图像$\boldsymbol{\hat X} $
    • 为了验证本文所提模型的性能,文本采用标准测试库图像数据作为测试样本介绍了模型在压缩使用上的可行性,同时为了分析模型的性能,本文将所提算法模型与文献[13, 16]基于余弦变换(cosine transform, CT)、离散余弦变换(discrete cosine transform, DCT)、离散小波变换(discrete wavelet transform, DWT)和二进离散小波变换(dyadic discrete wavelet transform, DDWT)的图像感知压缩重构数据的结果加以比较。为了保证结果的一致性,在图像分块处理过程中均采用8×8的分块大小进行处理。假设原始图像数据的维度为N,采样后的图像数据的维度为M,实验中以M/N表示采样率。因此在实验中为了对比不同模型的实验结果均以采样率来表示图像数据压缩的程度,通过对相同采样率下的重构结果进行分析反映当前模型的性能。

      本文从不同模型的重构质量及耗时情况来分析本文模型的特性。图 1直观展示了基于各类分块感知压缩模型和ALDBCS模型在不同采样率下的重构结果。将各类模型下的重构图像质量数据以折线图的形式表示,如图 2所示。图中横坐标均表示采样率即M/N的值,图 2的纵坐标表示在一定采样率下重构图像的峰值信噪比(peak signal to noise ratio, PSNR)的值,其总体反映了不同模型下峰值信噪比随着采样率变化的趋势;图 3为基于采样率M/N分别为0.05、0.10、0.30不同采样率下的重构图像,纵坐标从结构相似度(structural similarity, SSIM)分析, 即重构图像与原始图像在结构上相似程度分析,反映了不同模型下重构图像结构相似程度随着采样率变化的趋势。从图 3可以发现, 在基于不同的采样率的条件下,各类对比算法都能够达到压缩重构的结果,其中基于各类变换的分块感知压缩重构图像中图像整体比较平滑,但是整体而言图像比较模糊, 细节信息较少。而ALDBCS模型的重构结果尽管存在着边缘毛刺现象,但是整体而言, 图像重构较清晰, 图像细节内容充分。图 2图 3将各类模型下的重构效果以数据的形式从峰值信噪比和结构相似度的角度展开分析,图像重构质量变化趋势表明, 在相同模型下随着采样率的提高,图像的重构质量成递增趋势。当采样率较小时,重构质量递增变化比较快;当采样率较高时,重构质量随着采样率的提高图像重构质量递增逐渐趋向缓慢。不同模型在相同采样率下的重构结果表明, ALDBCS模型在相同的采样率下相比于其他模型在重构结果上更具优势。因此无论从图 3的直观视觉上分析,还是从图 2图 3的数据上分析,ALDBCS模型在图像压缩重建方面更具优势。

      图  1  各类模型下不同采样率的图像重构结果(采样率分别为0.05、0.10、0.30)

      Figure 1.  The Reconstruction Quality of the Different Models on the Different Compression Ratio (Compression Ratio: 0.05, 0.10, 0.30)

      图  2  不同模型下压缩重构峰值信噪比对比图

      Figure 2.  The PSNR Under Different Models

      图  3  不同模型下压缩重构结构相似度对比图

      Figure 3.  The Value of SSIM Under Different Models

      最优化稀疏系数选择中,以‖siŝi2σ作为限定条件选择最佳的稀疏系数,因此在选择稀疏系数的过程中σ的取值起到至关重要的作用,决定了在稀疏系数选择过程中选择的相关系数的个数,进而决定了当前模型的采样率。

      本文从σ的选择即稀疏系数的选择对系统的影响展开分析。表 1详细地给出了随着σ的变化,采样率及重建效果的变化。从表中可以直观发现,随着σ取值的减小,即稀疏系数选择中越接近于原始的稀疏表示数据,则采样率越高,图像的重建结果也越好。

      表 1  最优化稀疏表示误差冗余参数σ对结果的影响

      Table 1.  The Effect of the Parameter σ

      分类 σ取值
      1.5 0.5 0.1 0.01
      采样率 0.057 0.095 0.210 0.654 89
      峰值信噪比 32.280 34.620 37.850 40.380 50
      结构相似度 0.810 0.890 0.950 0.983 46

      为了验证本文所提算法的性能,实验对比了不同算法在不同数据下的重构质量。在实验中,分别对比了本文模型与文献[13, 16]所提模型的重构性能,对比了本文模型与基于综合模型学习字典的图像分块感知压缩的(image block compressed sensing based on the learning dictionary, BCSLD)重构性能,同时也对比了本文模型与基于综合字典的图像整体感知压缩模型(image compressed sensing based on the learning dictionary, CSLD)的重构性能。表 2分别给出了各类模型下图像重构的质量。从表 2中可以直观发现ALDBCS对多种不同场景的自然图像都能实现较好的重构。而且ALDBCS模型在重构质量上比其他基于变换的模型和基于综合字典的图像压缩模型都具有优势。

      表 2  不同模型下重构图像的峰值信噪比值分析/dB

      Table 2.  The Analysis of PSNR of Reconstructed Images based on Different Models/dB

      算法 采样率(M/N)
      0.10 0.20 0.30
      图像
      Lenna
      基于CT变换 28.08 30.97 32.94
      基于DCT变换 27.67 30.49 32.48
      基于DWT变换 27.69 30.85 32.99
      基于DDWT变换 28.08 31.35 33.45
      CSLD模型 27.24 32.35 37.71
      BCSLD模型 34.70 37.22 37.60
      ALDBCS模型 35.16 38.24 39.04
      图像
      Barbara
      基于CT变换 22.70 24.26 25.84
      基于DCT变换 22.75 24.37 25.89
      基于DWT变换 22.49 23.83 25.08
      基于DDWT变换 22.59 24.14 25.67
      CSLD模型 14.71 16.27 17.32
      BCSLD模型 20.01 25.33 31.97
      ALDBCS模型 31.77 33.18 34.15
      图像
      Peppers
      基于CT变换 28.43 31.47 33.22
      基于DCT变换 26.49 28.49 30.73
      基于DWT变换 28.68 31.72 33.45
      基于DDWT变换 28.99 32.01 33.73
      CSLD模型 15.97 17.81 18.93
      BCSLD模型 27.87 32.09 36.66
      ALDBCS模型 34.99 37.46 38.39

      为了更好地反映ALDBCS模型在效率上的特点,表 3给出了CSLD、BCSLD、ALDBCS在对图像进行压缩处理时的时间消耗。从表 2的重构质量数据对比和表 3的压缩重构耗时时间对比中可以发现,ALDBCS模型无论从重构质量还是从压缩重构的效率上都比其他模型更具优势。

      表 3  不同模型下图像压缩重构耗时分析/s

      Table 3.  The Analysis of Time Consumption of Different Models/s

      算法 采样率(M/N)
      0.10 0.20 0.30
      图像
      Lenna
      CSLD模型 26.41 44.39 50.52
      BCSLD模型 313.07 697.87 987.68
      ALDBCS模型 3.61 3.97 3.93
      图像
      Barbara
      CSLD模型 52.60 124.52 254.79
      BCSLD模型 475.97 1 648.40 3 045.80
      ALDBCS模型 3.83 3.79 3.96
      图像
      Peppers
      CSLD模型 48.25 120.46 258.52
      BCSLD模型 453.40 1508.50 2952.40
      ALDBCS模型 3.44 3.77 4.22

      在重构质量上尽管对于不同图像存在差异,但是整体而言,ALDBCS模型在重构质量上比其他模型更具优势。从压缩重构耗时上分析,ALDBCS模型的耗时约为其他模型的1/10或1/100,比其他模型而言更适用于图像压缩处理。

    • 本文针对目前图像数据量大,现有环境下压缩、传输、存储困难的问题,在学习字典的基础上,创新性地将解析字典应用到图像压缩过程中。从验证实验可以发现,本文所提的基于解析字典的图像分块压缩模型无论在时间上还是在重构图像质量上都要优于其他模型。但是由于字典原子子空间的适应程度较低,尽管模型在时间消耗上低于基于解析字典的图像压缩模型,然而模型的重构质量并不理想,因此怎样将数据的特征引入到解析字典的压缩模型中或者怎样优化字典原子子空间的适应度将作为后续的研究目标。

参考文献 (16)

目录

    /

    返回文章
    返回