图像处理文献综述.docx

上传人:飞****2 文档编号:19492943 上传时间:2022-06-08 格式:DOCX 页数:6 大小:25.54KB
返回 下载 相关 举报
图像处理文献综述.docx_第1页
第1页 / 共6页
图像处理文献综述.docx_第2页
第2页 / 共6页
点击查看更多>>
资源描述

《图像处理文献综述.docx》由会员分享,可在线阅读,更多相关《图像处理文献综述.docx(6页珍藏版)》请在得力文库 - 分享文档赚钱的网站上搜索。

1、精选优质文档-倾情为你奉上文献综述近年来,随着计算机视觉技术的日益发展,图像处理作为该领域的关键方向受到越来越多研究人员的关注与思考。在现在的日常生活中,由于通信设备低廉的价格和便捷的操作,人们越来越喜欢用图像和视频来进行交流和分享,消费性的电子产品在消费者中已经非常普遍,例如移动手机和数码相机等等。在这个纷繁多变的世界,每天都有数以万计的图像产生,同时信息冗余问题也随之而来。尽管在一定的程度上,内存技术的增加和网络带宽的提高解决了图像的压缩和传输问题,但是智能的图像检索和有效的数据存储,以及图像内容的提取依然没有能很好的解决。视觉注意机制可以被看做是人类对视觉信息的一个筛选过程,也就是说只有

2、一小部分重要的信息能够被大脑进行处理。人类在观察一个场景时,他们往往会将他们的注意力集中在他们感兴趣的区域,例如拥有鲜艳的颜色,光滑的亮度,特殊的形状以及有趣的方位的区域。传统的图像处理方法是将整幅图像统一的处理,均匀的分配计算机资源;然而许多的视觉任务仅仅只关系图像中的一个或几个区域,统一的处理整幅图像很明显会浪费过多的计算机资源,减少处理的效率 1,2。因此,在计算机视觉领域,建立具有人类视觉系统独特数据筛选能力的数学模型显得至关重要。受高效的视觉信息处理机制的启发,计算机视觉领域的显著性检测应运而生。图像显著性检测是通过建立一定的数学模型,让计算机来模拟人类的视觉系统,使得计算机能够准确

3、高效的定位到感兴趣的区域。一般来说,一个信号的显著性可以表示为其和周围环境的差异性。正是因为这个信号和周围的其他信号的迥异性,使得视觉系统不需要对环境中的所有感兴趣的区域进行逐个的扫描,显著的目标会自动从环境中凸显出来。另外,一些心理学研究表明人类的视觉机制不仅仅是由低级的视觉信号来驱动的,基于记忆、经验等的先验知识同样能够决定场景中的不同信号的显著性,而这些先验知识往往是和一些高层次的事件以及视觉任务联系在一起的。基于当前场景的视觉显著性机制是低级的,慢速的。而基于先验知识的显著性机制通常是和高层次的任务关联在一起的,其效率通常低于由视觉信号驱动的显著性机制。人眼视觉系统通过显著性原理来处理

4、复杂的视觉感知是不争的事实,这种显著性的处理机制使得复杂背景下的目标检测、识别有了很大程度的提升。在模式识别、计算机视觉等领域,越来越多的计算机工作者致力于开发显著性计算模型,用以简单的表达图像的主要信息。这些显著性模型的检测结果是一个显著性灰度图,其每个像素点的灰度值表示了该像素的显著性,灰度值越大,表明该像素越显著。从信息处理的方式看,显著性模型大致可以分为两类:自顶向下(任务驱动)和自底向上(数据驱动)的方法。自顶向下的显著性检测方法之所以是任务驱动,这是因为该类模型通常是和某一特定的任务相关。在同样的场景或模式下,检测到的结果因任务的不同而不同是自顶向下模型最突出的特点。例如在目标检测

5、中,检测者需要首先告诉需要检测的目标是什么,检测到的显著性图则表示目标可能出现的位置。自顶向下的显著性检测方法的依据是:如果研究者事先知道需要检测目标的颜色、形状或者方向等特征,那么该检测算法自然会高效的检测到需要检测的目标。因此,自顶向下的算法通常需要人工标记,或是从大量的包含某种特定目标的图像中学习该类目标的特征信息,这些学习方法一般是监督的;然后求测试图像对于训练学习得到的信息的响应,从而得到测试图像的显著性图。现存的一些自顶向下的算法在某些特定的目标上取得了一定的效果,不过这些算法往往只对某些特定的目标有效,对于复杂多变的自然图像,该类算法存在很大的缺陷。自顶向下的模型是慢速的、任务驱

6、动的,有意识的,以及封闭回路的。由于自顶向下模型的特点,其应用受到了很大的限制。相对于自顶向下的显著性模型,自底向上的模型检测到的显著性图是依据当前的图像和图像的低级特征得到的,和特定的任务没有任何的相关性,因此更具一般性,目前也是研究者们研究的重点。由于是由低级视觉信号驱动的,自底向上模型被认为是一种无意识的视觉处理过程,它和记忆没有任何的关系,信号显著性仅仅由当前的视觉信号本身所决定。在自底向上模型中,吸引我们注意的感兴趣区域一定和周围的环境有着极大的差别。因此,自底向上模型通常采用中央-周围对比算法来模拟图像显著性,该方法通过计算某一像素或区域相对于周围领域的对比度来模拟其相应的显著性。

7、此外,一些研究者通过采用活动窗口的领域方法来提高定位目标的准确性。另一种常用的自底向上的显著性方法是信息最大化法,该方法通过心理学的研究,认为人类往往将注意力放在图像中信息量最大的位置例如图像中央区域,从而进行有效的分析。自底向上注意模型是快速的、无意识的,以及大多数是前向反馈的。自底向上的图像显著性估计算法适用于对图像目标的模式或位置没有任何信息的情况。经过多年的研究,显著性检测已经应用于计算机视觉的许多方向。如感兴趣区域检测 3、目标定位 4、图像分类5、图像或视频分割 6 图像或视频压缩 7,8 等等。例如在文献 9 中,N.Ouerhani等人将显著性检测应用到图像压缩这个新的领域中,

8、其目的是将图像中的显著性部分在解压缩的过程中拥有更好的重建质量。随后,Itti等人 8 提出了一种新的基于显著性的图像压缩方法,该方法对视频序列的每帧都进行显著性检测,将距离显著性区域较远的地方做模糊处理,这样就能使得显著性区域大部分保证不变,而其他区域进行高质量的压缩。R Miau和L. Itti 10 为进行目标识别,将显著性检测作为其预处理操作,然后使用生物动力系统HMAX 11 来进行目标的识别。Salah等人 12 将显著性检测和人工神经网络结合起来,用于识别人脸是手写数字。在文献 13 中,N.Ouerhani等人将显著性检测用于交通标志的识别。图像分割是将图像中的前景物体提取出来

9、的一种技术,传统的图像分割需要人工给予交互信息,在文献 14 中,N. Ouerhani等人利用显著性检测作为人工交互信息,实现了对图像的自动分割。正是由于显著性检测的诸多重要的应用,使得大量的研究人员将极大的热情投入到显著性检测的研究中来。近年来,自底向上和自顶向下显著性模型取得了很大的发展,研究者们用不同的数学模型、思想来让计算机模拟人类视觉系统,下面就分别介绍关于自顶向下和自底向上模型的发展:自底向上的显著性检测方法:早期C.Koch等人通过研究人类视觉自底向上阶段的机制,提出了人类视觉显著性机理,希望模拟人类的视觉特点,计算出人类感兴趣的区域。这是非常有影响力的生物启发模型,但该模型仅

10、仅停留在理论阶段,并没有通过计算机实现。Itti等人的基本模型 15 利用三个特征通道来模拟显著性。他们首先将图像用不同尺度上的的颜色、强度和方向这三个属性来表征,然后利用中心-周围算法对每个特征进行处理得到多个特征图,最后,将这些特征图经过线性迭加后得到最终的显著性图。这个模型是显著性检测方面的一个里程碑,之后的大部分模型都以其为基准。该模型也是第一次完整的实现C.Koch等人提出的显著性生物启发系统。Bruce等人 16 根据香农的自信息理论,提出了AIM(Attention based on Information Maximization)模型,研究了人眼注视行为和信息量的显著性之间的

11、关系。他们首先基于大量的自然图像的图像块,利用独立分量分析(ICA)算法从中学习出一系列的滤波器,然后将测试图像和滤波器进行卷积,得到测试图像一系列的特征,最后根据图像对滤波器的响应计算自信息得到最终的显著性图。Harel等人 17 提出了基于图的视觉显著性(GBVS)。他们在多尺度空间下提取图像的特征图形成一个全连通的图,图像中的像素点是图的节点,两个节点之间的权重由他们特征值的相似性和空间距离共同决定。然后利用随机游走计算图像的显著性。虽然该模型对人眼关注点能较好的预测,但是具有很大的时间复杂度。Hou等人 18 提出了基于谱残余的模型,第一次在变换域的方面考虑图像的显著性。该模型首先对图

12、像进行傅里叶变换得到图像振幅谱,接着让对数频谱通过一个领域的滤波器,并和对数频谱相减得到谱残差,最后利用傅里叶反变换结合皮平滑高斯滤波器得到最终的显著性图。该算法简单高效,其matlab核心代码只有五行。Guo等人 19 证明了用傅里叶变换的相位谱来代替振幅谱能取得更好的显著性预测效果。随后,Guo和Zhang等人 7 提出了用四元数将图像的颜色、强度和运动特征联系起来的模型基于相位谱的四元数傅里叶变换模型,该模型可以计算时空的显著性并用于视频处理。Zhang等人 20 提出了经典SUN(Saliency Using Natural statistics)方法,改方法也是利用香农自信息理论衡量

13、图像显著性。首先由DoG或ICA得到自然图像的一系列统计特性,然后结合贝叶斯框架得到最终的显著性图。该模型给许多模型提出了一个基本的框架。Achanta等人 21 利用图像的颜色和强度两种低级特征,实现了频率调谐的显著性区域检测算法。此方法用某个像素和整个图像的平均色的色差来直接定义显著性值。单该方法只考虑了一阶平均颜色,不足以分析复杂多变的自然图像。Cheng等人 22 提出了基于区域对比度的视觉显著性区域检测算法。该方法首先依据与其他像素的色彩差异来分配像素的显著性值,然后将图像分割成若干区域,最后利用颜色距离和空间距离的加权来定义图像最终的显著性。该算法同时考虑了全局对比度和空间相干性。

14、作者还将得到的显著性图应用于图像分和和基于内容的图像缩放,都取得了比较好的效果。Goferman等人 23 提出了基于上下文的显著性检测模型。该模型同时对局部底线线索、全局考虑、视觉组织规划以及表层特征进行建模来突出显著性物体。Xie等人 24 通过研究图像中的低层和中层信息,结合在贝叶斯框架,提出了一种新模型。该模型采取由粗到细的策略。首先,利用角点计算得到目标的大致区域,进而计算该大致区域得到粗糙的显著性图。然后,结合这个粗糙的显著性图和由低层信息计算得到观测性似然概率,从而得到每个像素处的显著值。Mai 等人25利用条件随机场框架,提出了一个数据驱动的显著性检测方法。该方法基于两个发现:

15、一是不同的显著性检测方法在显著性分析中有不同的表现,二是显著性分析方法的性能随着图片的不同而变化着。因此该方法考虑不同模型之间的性能差异,以及各类模型在单类图像上的性能依赖,通过数据驱动的方法来进行显著性融合。Zhang等人26提出了一个基于布尔图的显著性检测模型(BMS)。该模型认为图像可以由一系列的二值图像表示,这些二值图像是通过对图像的颜色通道进行随机阈值生成。因此,该方法基于图形背景分割的格式塔准则,通过分析布尔图的拓扑结构计算最终的显著性图。该算法在5个眼动点数据库集上都取得了比较好的效果,在显著性目标检测上也有很好的优势。Ren 等人27提出了一个基于区域的显著性检测算法。该算法首

16、先用自适应均值分割算法对图像进行超像素分割,并用平均颜色表示超像素;然后将超像素集合最为高斯混合模型(GMM)的输入,得到k个聚类,并计算每个聚类的紧密度作为聚类的显著性值;最后利用页排序得到最终的显著性图。自顶向下的显著性检测方法:Gao等人 28 研究发现对某些特征的边缘分布,感兴趣区域的出现对其有很大的影响,即某一类显著性信息能够很好的被某些特征表征。通过训练改感兴趣目标的这一特征,最终能够得到比较有区分度的显著性图。在文献 20 中,Zhang等人提出了基于贝叶斯框架的目标检测模型,在这个模型中,通过似然函数表征需要检测的目标。Marchessotti等人 29 通过自然图像之间的视觉

17、相似性来模拟显著性。在该模型中,需要测试的图像是已知的,他们首先在测试数据库中选择和测试图像看起来比较相似的一些图片。然后利用Fisher核函数来训练一个简单的分类器,改分类器能够大致将前景与背景区分开。最后将该分类器运用到测试图片中,就能较好的计算得到显著性图。该模型不需指定特定的目标,但是在图片检索,尤其是相似图片的检索中,是一项非常大的挑战,同时分类器的训练需要占用大量的计算资源,使得算法的时间复杂度比较大。显著性检测目前存在的技术难点:尽管目前的自底向上和自顶向下的显著性检测算法取得了不错的效果,但仍存在几个问题需要解决:首先,已有的方法不能比较均匀的强调整个显著区域或目标,原因在于信

18、息量最大化的显著性检测算法倾向于检测人眼凝视的点而非整个显著性区域,而由于较大的对比度往往出现在目标的边缘,一般的基于中心一周围差异性原则的检测方法更强调目标边界,容易忽略目标内部区域;其次,当背景比较杂乱时,已往的算法由于只依赖于低层次的视觉信息,鲁棒性不高,会对许多无关的低级视觉信号做出回应而且易一丢失感兴趣的目标的信息;最后,一些自底向上的显著性算法还有计算冗余的问题,比如由目标大小未知带来的多尺度邻域对比计算以及在整幅图像中通过滑动窗搜索每个图像块重复计算每个像素的显著度引入的计算量。参考文献:1 宋雁斓.视觉注意模型及其在图像分类中的应用D.上海:上海交通大学,2008.2 冯辉.视

19、觉注意力机制及其应用研宄D.河北:华北电力大学,2011.3 C. M. Privitera and L. W. Stark, “Algorithms for defining visual regionsof-interest: Comparison with eye fixations,” IEEE Trans. Pattern Anal. Mach. Intell., vol. 22, no. 9, pp. 970982, Sep. 2000.4 D. Gao, S. Han, and N. Vasconcelos, “Discriminant saliency, the detecti

20、on of suspicious coincidences, and applications to visual recognition,”IEEE Trans. Pattern Anal. Mach. Intell., vol. 31, no. 6, pp. 9891005, Jun. 2009.5 C. Siagian and L. Itti, “Rapid biologically-inspired scene classification using features shared with visual attention,” IEEE Trans. Pattern Anal. M

21、ach. Intell., vol. 29, no. 2, pp. 300312, Feb. 2007. 6 E. Rahtu, J. Kannala, M. Salo, and J. Heikkil, “Segmenting salient objects from images and videos,” in Proc. Eur. Conf. Comput. Vis., 2010, pp. 366379.7 C. Guo and L. Zhang, “A novel multiresolution spatiotemporal saliency detection model and it

22、s applications in image and video compression,”IEEE Trans. Image Process., vol. 19, no. 1, pp. 185198, Jan. 2010.8 L. Itti, “Automatic foveation for video compression using a neurobiological model of visual attention,” IEEE Trans. Image Process., vol. 13, no. 10, pp. 13041318, Oct. 2004.9 N. Ouerhan

23、i, J. Bracamonte, H. HUgli, et al. Adaptive Color Image Compression Based on Visual Attention C. In Proc. 11th Int. Conf. on Image Analysis and Processing, 2001, 416-42L10 F. Miau, L. Itti. A Neural Model Combining Attentional Orienting to Object Recognition: Preliminary Explorations on the Interpla

24、y Between Where and What C. In Proc. IEEE Engineering in Medicine and Biology Society (EMBS), 2001, 789-792.11 M. Riesenhuber, T. Poggio. Hierarchical models of object recognition in cortex J. Nature Neuroscience, 1999, 11:1019-1025.12 Salah, A.A., E. Alpaydin, et al. A Selective Attention Based Met

25、hod for Visual Pattern Recognition with Application to Handwritten Digit Recognition and Face Recognition J. IEEE Trans. Pattern Analysis and Machine Intelligence, 2002,24, 3:420-425.13 N. Ouerhani. Visual Attention: from bio-inspired Modeling to Real-Time Implementation D. University de Neuchatel,

26、2003.14 N. Ouerhani, N. Archip, H. Htigli,et al. Visual Attention Guided Seed Selection for Color Image SegmentationC. In Proc. Conference Computer Analysis of Images and Patterns, 2001.15 L. Itti, C. Koch, and E. Niebur, “A Model of Saliency-Based Visual Attention for Rapid Scene Analysis,” IEEE Tr

27、ans. Pattern Analysis and Machine Intelligence, vol. 20, no. 11, pp. 1254-1259, Nov. 1998.16N. D. B. Bruce, J. K. Tsotsos. Saliency Based on Information Maximization C. In Advances in Neural Information Processing Systems, 2005.17 J. Harel, C. Koch, and P. Perona, “Graph-Based Visual Saliency,” Neur

28、al Information processing Systems, vol. 19, pp. 545-552, 2006.18X. Hou, L. Zhang. Saliency Detection: A Spectral Residual Approach C. In Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, 2007.19 C. Guo, Q. Ma, and L. Zhang, “Spatio-Temporal Saliency Detection Using Phase Spe

29、ctrum of Quaternion Fourier Transform,” Proc. IEEE Conf. Computer Vision and Pattern Recognition, 2008.20L. Zhang, M. H. Tong, T. K. Marks, et al. SUN: A Bayesian Framework for Saliency Using Natural Statistics J. J. of Vision, 2008, 8(7), 32:1-20.21 R. Achanta, S.S. Hemami, F.J. Estrada, and S. Su

30、sstrunk, “Frequency-Tuned Salient Region Detection,” Proc. IEEE Conf. Computer Vision and Pattern Recognition, 2009.22M. M. Cheng, G. X. Zhang, N. J. Mitra, et al. Global contrast based salient region detection C. In Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, 2011, 09

31、-416.23 S. Goferman, L. Zelnik-Manor, and A. Tal, “Context-Aware Saliency Detection,” Proc. IEEE Conf. Computer Vision and Pattern Recognition, 2010.24Y. Xie, H. Lu, M. Yang. Bayesian Saliency via Low and Mid Level Cues J. IEEE Transaction On Image Processing, 2013, 22, 5:1689-1698.25 Long. M Y. Niu

32、 and Feng. L: Saliency Aggregation: A Data-driven Approach. In CVPR (2013)26 Jianming Zhang and Stan Sclaroff: Saliency Detection: A Boolean Map Approach. In ICCV (2013)27 Zhixiang Ren, Shenghua Gao, et.al. , “Region-Based Saliency Detection and Its Application in Object Recognition”. IEEE TRANSACTI

33、ONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY, VOL. 24, NO. 5, MAY 2014, 769-77928 D. Gao, V. Mahadevan, and N. Vasconcelos, The Discriminant Center-Surround Hypothesis for bottom-up Saliency c. in Advance in Neural Processing Systems, 2007, 20:497-504.29 L. Marchesotti, C. Cifarelli, and G. Csurka, “A framework for visual saliency detection with applications to image thumbnailing,” in Proc. IEEE Int. Conf. Comput. Vis., Dec. 2010, pp. 22322239.专心-专注-专业

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 教育专区 > 教案示例

本站为文档C TO C交易模式,本站只提供存储空间、用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。本站仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知得利文库网,我们立即给予删除!客服QQ:136780468 微信:18945177775 电话:18904686070

工信部备案号:黑ICP备15003705号-8 |  经营许可证:黑B2-20190332号 |   黑公网安备:91230400333293403D

© 2020-2023 www.deliwenku.com 得利文库. All Rights Reserved 黑龙江转换宝科技有限公司 

黑龙江省互联网违法和不良信息举报
举报电话:0468-3380021 邮箱:hgswwxb@163.com