当前位置: > 论文中心 > 计算机论文 >

基于显著对象的贝叶斯多目标检测方法

时间:2013-09-10 14:11 点击:
针对多目标图像检测存在的误检问题,结合低层特征和中层提示,提出了一个新的基于显著对象的贝叶斯框架下的多目标检测方法。该方法首先用上下文感知显著检测方法获取图像的低层特征信息,然后用Ncut图像分割取得图像的显著中层信息提示,即多目标的类别标签信
  0引言
 
  图像理解是当今的研究热点,而图像理解的关键问题就是图像中目标对象的提取问题[1]。正确提取这些关键目标,可以大大提高图像分析与处理的效率和准确度,降低计算的复杂度,避免不必要的计算资源浪费。图像显著区域检测技术正是在这种思想的基础上提出并发展起来的。
 
  目前,国内外研究者提出许多显著对象检测模型,可分为自底向上的模型、自顶向下的模型和混合模型三类。在自底向上模型的研究过程中,特征集成理论(FeatureIntegrationTheory,FIT)是这类模型的基础。其中Itti等人[2]在1998年提出的算法最具代表性,该算法将多种特征、多种尺度通过中心——周围思想得到的显著性度量结果合成为一幅显著图,并且该模型通过引入运动和闪变的对比度特征而扩展到视频显著性计算中[3]。Walther和Koch在Itt’s98模型的基础上进行了扩展,得到一个显著典型(proto)目标[4]。另外,还有其它一些自底向上的模型,比如Bruce提出的基于信息最大原则的AIM模型[5],Koch提出的基于图论的GBVS模型[6],Hou提出的基于谱残差的SR模型[7],Achanta提出的基于频率调整的FT模型[8]等。还有利用图像分割获得区域显著性[910]、利用提取语义线索(人脸、语音等)[11]、利用机器学习方法学习[9,1213]等自顶向下的显著计算模型。
 
  本文针对图像检测存在的多目标误检问题,提出了基于上下文感知显著检测模型和Ncut分割的贝叶斯框架下的多目标检测方法。首先根据上下文感知显著检测方法获取图像的低层特征信息,然后用Ncut图像分割方法得到图像的中层信息提示,即目标类别信息,根据低层信息特征和中层信息提示来增强显著区域,抑制非显著区域,计算得到图像的先验显著图,最后根据贝叶斯方法计算得到图像的后验显著图。
 
  1方法原理
 
  本文的显著区域检测总体框架如图1所示,主要包括基于上下文感知的显著区域检测和Ncut图像分割,将两者结合,增强显著区域,抑制非显著区域,计算得到先验显著信息,最后根据贝叶斯方法求得后验显著图。
 
  1.1低层特征的提取
 
  根据人眼的视觉注意特性,显著检测主要遵循以下3项原则:
 
  ①从局部来看,显著区域和周围区域有明显的对比度和颜色等方面的差别;
 
  ②从全局来看,显著区域总是某些特征在全局范围内出现频率较低的区域;
 
  ③显著的区域一般会有一个聚集的中心,既显著区域和物体在图像中的分布有明显的聚合特征,而不是分散的。
 
  由原则①可知,颜色和对比度比较大的区域将获得比较高的显著度,而类似的和模糊的将获得比较低的显著度。由原则②可知,出现频率比较高的区域将获得比较低的显著度。由原则③可知,显著地像素点应该是聚合的,而不是分布在整幅图像中的。
 
  本小节结构如图2所示。对图像进行局部和全局的单尺度显著度计算,并进行多尺度的显著增强,将显著区域附近的点扩展为显著点,计算图像的显著图。
 
  3结语
 
  本文针对图像检测中存在的多目标误检问题,提出了基于上下文感知显著检测和Ncut图像分割的贝叶斯框架下的多目标检测方法。该方法基于上下文感知显著检测方法获取低层特征信息,用Ncut图像分割方法得到图像的中层多目标信息提示,结合中、低层信息来对显著检测的结果进行增强和抑制,计算得到图像的先验显著图,最后根据贝叶斯方法计算得到图像的后验显著图。本文方法提高了显著对象的检测精确度,并且解决了多目标图像显著对象检测中存在的误检问题,但是对于只有单一显著对象的图像,本文方法存在计算耗时高、效率慢的问题。如何提高算法的速度和效率,将是后续的研究重点。
 
  参考文献:
 
  [1]JIANGY,MENGJ,YUANJ.Randomizedvisualphrasesforobjectsearch[C].ComputerVisionandPatternRecognition,2012.
 
  [2]ITTIL,KOCHC,NIEBHRE.Amodelofsaliencybasedvisualattentionforrapidsceneanalysis[J].IEEETransactionsonPatternAnalysisandMachineIntelligence,1998(11).
 
  [3]ITTIL,KOCHC.Computationalmodelingofvisualattention[J].NatureReviewNeuroscience,2001(3).
 
  [4]WALTHERD,KOCHC.Modelingattentiontosalientprotoobjects[J].NeuralNetworks,2006(9).
 
  [5]BRUCENDB,TSOTSOSJK.Saliencyattentionandvisualsearch:aninformationtheoreticapproach[J].JournalofVision,2009(3).
 
  [6]HARELJ,KOCHC,PERONAP.Graphbasedvisualsaliency[J].InAdvancesNeuralInformationProcessingSystems,2007.
 
  [7]HOUX,ZHANGL.Saliencydetection:aspectralresidualapproach[C].InIEEEConferenceonComputerVisionandPatternRecognition,2007.
 
  [8]ACHANTAR,HEMAMIS,ESTRDDAF,etal.Frequencytunedsalientregiondetection[C].ComputerVisionandPatternRecognition,2009.
 
  [9]TLIU,ZJYUAN,JASUN.LearningtoDetectaSalientObject[J].IEEETransactionsonPatternAnalysisandMachineIntelligence,2011(33).
 
  [10]YHU,DRAJAN,LTCHIA.Adaptivelocalcontextsuppressionofmultiplecuesforsalientvisualattentiondetection[C].InIEEEInternationalConferenceonMultimediaandExpo,2005.
 
  [11]CERFM,HARELJ,EINHAUSERW.Predictinghumangazeusinglowlevelsaliencycombinedwithfacedetection[C].InAdvancesinNeuralInformationProcessingSystems,2008.
 
  [12]JLI,YHTIAN,TJHUANG.Probabilisticmultitasklearningforvisualsaliencyestimationinvideo[J].InternationalJournalofComputerVision,2010(2).
 
  [13]STASGOFERMAN,LIHIZELNIKMANOR,AYELLRT,etal.Contextawaresaliencydetection[C].InProc.IEEEConferenceonComputerVisionandPatternRecognition,2010.
 
  [14]XIEY,LUH,YANGM.Bayesiansaliencyvialowandmidlevelcues[C].IEEETransactionsonImageProcessing,2011.
 

   论文榜(www.zglwb.com),是一个专门从事期刊推广、投稿辅导的网站。
本站提供如何投稿辅导,寻求投稿辅导代理,快速投稿辅导,投稿辅导格式指导等解决方案:省级投稿辅导/国家级投稿辅导/核心期刊投稿辅导//职称投稿辅导。


栏目列表
联系方式
推荐内容
 
QQ在线咨询
投稿辅导热线:
189-6119-6312
微信号咨询:
18961196312