0引言
图像理解是当今的研究热点,而图像理解的关键问题就是图像中目标对象的提取问题[1]。正确提取这些关键目标,可以大大提高图像分析与处理的效率和准确度,降低计算的复杂度,避免不必要的计算资源浪费。图像显著区域检测技术正是在这种思想的基础上提出并发展起来的。
目前,国内外研究者提出许多显著对象检测模型,可分为自底向上的模型、自顶向下的模型和混合模型三类。在自底向上模型的研究过程中,特征集成理论(FeatureIntegrationTheory,FIT)是这类模型的基础。其中Itti等人[2]在1998年提出的算法最具代表性,该算法将多种特征、多种尺度通过中心——周围思想得到的显著性度量结果合成为一幅显著图,并且该模型通过引入运动和闪变的对比度特征而扩展到视频显著性计算中[3]。Walther和Koch在Itt’s98模型的基础上进行了扩展,得到一个显著典型(proto)目标[4]。另外,还有其它一些自底向上的模型,比如Bruce提出的基于信息最大原则的AIM模型[5],Koch提出的基于图论的GBVS模型[6],Hou提出的基于谱残差的SR模型[7],Achanta提出的基于频率调整的FT模型[8]等。还有利用图像分割获得区域显著性[910]、利用提取语义线索(人脸、语音等)[11]、利用机器学习方法学习[9,1213]等自顶向下的显著计算模型。
本文针对图像检测存在的多目标误检问题,提出了基于上下文感知显著检测模型和Ncut分割的贝叶斯框架下的多目标检测方法。首先根据上下文感知显著检测方法获取图像的低层特征信息,然后用Ncut图像分割方法得到图像的中层信息提示,即目标类别信息,根据低层信息特征和中层信息提示来增强显著区域,抑制非显著区域,计算得到图像的先验显著图,最后根据贝叶斯方法计算得到图像的后验显著图。
1方法原理
本文的显著区域检测总体框架如图1所示,主要包括基于上下文感知的显著区域检测和Ncut图像分割,将两者结合,增强显著区域,抑制非显著区域,计算得到先验显著信息,最后根据贝叶斯方法求得后验显著图。
1.1低层特征的提取
根据人眼的视觉注意特性,显著检测主要遵循以下3项原则:
①从局部来看,显著区域和周围区域有明显的对比度和颜色等方面的差别;
②从全局来看,显著区域总是某些特征在全局范围内出现频率较低的区域;
③显著的区域一般会有一个聚集的中心,既显著区域和物体在图像中的分布有明显的聚合特征,而不是分散的。
由原则①可知,颜色和对比度比较大的区域将获得比较高的显著度,而类似的和模糊的将获得比较低的显著度。由原则②可知,出现频率比较高的区域将获得比较低的显著度。由原则③可知,显著地像素点应该是聚合的,而不是分布在整幅图像中的。
本小节结构如图2所示。对图像进行局部和全局的单尺度显著度计算,并进行多尺度的显著增强,将显著区域附近的点扩展为显著点,计算图像的显著图。
3结语
本文针对图像检测中存在的多目标误检问题,提出了基于上下文感知显著检测和Ncut图像分割的贝叶斯框架下的多目标检测方法。该方法基于上下文感知显著检测方法获取低层特征信息,用Ncut图像分割方法得到图像的中层多目标信息提示,结合中、低层信息来对显著检测的结果进行增强和抑制,计算得到图像的先验显著图,最后根据贝叶斯方法计算得到图像的后验显著图。本文方法提高了显著对象的检测精确度,并且解决了多目标图像显著对象检测中存在的误检问题,但是对于只有单一显著对象的图像,本文方法存在计算耗时高、效率慢的问题。如何提高算法的速度和效率,将是后续的研究重点。
参考文献:
[1]JIANGY,MENGJ,YUANJ.Randomizedvisualphrasesforobjectsearch[C].ComputerVisionandPatternRecognition,2012.
[2]ITTIL,KOCHC,NIEBHRE.Amodelofsaliencybasedvisualattentionforrapidsceneanalysis[J].IEEETransactionsonPatternAnalysisandMachineIntelligence,1998(11).
[3]ITTIL,KOCHC.Computationalmodelingofvisualattention[J].NatureReviewNeuroscience,2001(3).
[4]WALTHERD,KOCHC.Modelingattentiontosalientprotoobjects[J].NeuralNetworks,2006(9).
[5]BRUCENDB,TSOTSOSJK.Saliencyattentionandvisualsearch:aninformationtheoreticapproach[J].JournalofVision,2009(3).
[6]HARELJ,KOCHC,PERONAP.Graphbasedvisualsaliency[J].InAdvancesNeuralInformationProcessingSystems,2007.
[7]HOUX,ZHANGL.Saliencydetection:aspectralresidualapproach[C].InIEEEConferenceonComputerVisionandPatternRecognition,2007.
[8]ACHANTAR,HEMAMIS,ESTRDDAF,etal.Frequencytunedsalientregiondetection[C].ComputerVisionandPatternRecognition,2009.
[9]TLIU,ZJYUAN,JASUN.LearningtoDetectaSalientObject[J].IEEETransactionsonPatternAnalysisandMachineIntelligence,2011(33).
[10]YHU,DRAJAN,LTCHIA.Adaptivelocalcontextsuppressionofmultiplecuesforsalientvisualattentiondetection[C].InIEEEInternationalConferenceonMultimediaandExpo,2005.
[11]CERFM,HARELJ,EINHAUSERW.Predictinghumangazeusinglowlevelsaliencycombinedwithfacedetection[C].InAdvancesinNeuralInformationProcessingSystems,2008.
[12]JLI,YHTIAN,TJHUANG.Probabilisticmultitasklearningforvisualsaliencyestimationinvideo[J].InternationalJournalofComputerVision,2010(2).
[13]STASGOFERMAN,LIHIZELNIKMANOR,AYELLRT,etal.Contextawaresaliencydetection[C].InProc.IEEEConferenceonComputerVisionandPatternRecognition,2010.
[14]XIEY,LUH,YANGM.Bayesiansaliencyvialowandmidlevelcues[C].IEEETransactionsonImageProcessing,2011.
|