留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

图像序列的显著性目标区域检测方法

柯洪昌 孙宏彬

柯洪昌, 孙宏彬. 图像序列的显著性目标区域检测方法[J]. 中国光学, 2015, 8(5): 768-774. doi: 10.3788/CO.20150805.0768
引用本文: 柯洪昌, 孙宏彬. 图像序列的显著性目标区域检测方法[J]. 中国光学, 2015, 8(5): 768-774. doi: 10.3788/CO.20150805.0768
KE Hong-chang, SUN Hong-bin. A saliency target area detection method of image sequence[J]. Chinese Optics, 2015, 8(5): 768-774. doi: 10.3788/CO.20150805.0768
Citation: KE Hong-chang, SUN Hong-bin. A saliency target area detection method of image sequence[J]. Chinese Optics, 2015, 8(5): 768-774. doi: 10.3788/CO.20150805.0768

图像序列的显著性目标区域检测方法

doi: 10.3788/CO.20150805.0768
基金项目: 国家高技术研究发展计划(863计划)资助项目(No.2012AA040104);吉林省科技厅资助项目(No.20120332);吉林省发改委资助项目(No.2013C048);吉林省科技厅国际合作资助项目(No.20140105);吉林省教育厅资助项目(No.20130434,No.20140032)
详细信息
    通讯作者: 柯洪昌(1981—),男,吉林德惠人,硕士,讲师,2004年、2007年于吉林大学分别获得学士、硕士学位,主要从事嵌入式系统、目标识别和目标跟踪方面的研究。 E-mail:kehongchang1981@163.com孙宏彬(1969—),男,吉林四平人,博士后,教授, 1991年、1997年于华北电力大学分别获得学士、硕士学位,2007年于东华大学获得博士学位,2010年于吉林大学博士后出站,主要从事智能信息系统、计算机视觉和机器学习方面的研究。 E-mail:Win_shb@163.com
  • 中图分类号: TP391.4

A saliency target area detection method of image sequence

  • 摘要: 针对传统视觉显著性模型在自顶向下的任务指导和动态信息处理方面的不足,设计并实现了融入运动特征的视觉显著性模型。利用该模型提取了图像的静态特征和动态特征,静态特征的提取在图像的亮度、颜色和方向通道进行,运动特征的提取采用基于多尺度差分的特征提取方法实现,然后各通道分别通过滤波、差分得到显著图,在生成全局显著图时,提出多通道参数估计方法,计算图像感兴趣区域与眼动感兴趣区域的相似度,从而可在图像上准确定位目标位置。针对20组视频图像序列(每组50帧)进行了实验,结果表明:本文算法提取注意焦点即目标区域的平均相似度为0.87,使用本文算法能够根据不同任务情境,选择各特征通道的权重参数,从而可有效提高目标搜索的效率。
  • 图  1  融入运动特征的视觉显著性模型

    Figure  1.  Visual saliency model fused with motion features

    图  2  视觉显著性模型多通道显著图

    Figure  2.  Multi-channel saliency maps of visual saliency model

    图  3  20组图像的平均相似度比较

    Figure  3.  Average similarity of 20 group images

    表  1  多通道参数估计权值平均值的部分实验结果

    Table  1.   Part results of the avarage values of the multi-channel parameter estimation

    下载: 导出CSV
  • [1]

    [1] 郭立强,朱明. 彩色图像处理的可交换Clifford代数方法[J]. 中国光学,2013,6(6):885-891. GUO L Q,ZHU M. Commutative Clifford algebra method for color image processing[J]. Chinese Optics,2013,6(6):885-891.(in Chinese)
    [2] 阎雪飞,许廷发,白廷柱. 改进的固定点图像复原算法[J]. 中国光学,2013,6(3):318-324. YAN X F,XU T F,BAI T ZH. Improved fixed point method for image restoration[J]. Chinese Optics,2013,6(3):318-324.(in Chinese)
    [3] JOHAN W,JAMES H E,MICHAEL K,et al.. A century of gestalt psychology in visual perception:perceptual grouping and figure ground organization[J]. Psychological Bulletin,2012,138(6):1172-1217.
    [4] 吴笑天,鲁剑锋,贺柏根,等. 雾天降质图像的快速复原[J]. 中国光学,2013,6(6):892-899. WU X T,LU J F,HE B G,et al.. Fast restoration of haze-degraded image[J]. Chinese Optics,2013,6(6):892-899.(in Chinese)
    [5] MARK S,RUSSELL T,RHODRI C,et al.. Top-down activation of shape-specific population codes in visual cortex during mental imagery[J]. J. Neuroscience,2009,29(5):1565-1572.
    [6] ITTI L,KOCH C. NIEBUR E. A model of saliency-based visual attention for rapid scene analysis[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,1998,20(11):1254-1259.
    [7] HWANG B,BAN S W,LEE M. Top-down object biased attention using growing fuzzy topology ART[C]. Intelligent Data Engineering and Automated Learning-IDEAL. Daejeon,South Korea,November 2-5 2008:96-103.
    [8] ORABONA F,METTA G,SANDINI G. A proto-object based visual attention model[J]. Attention in Cognitive Systems,2007,48(40):198-215.
    [9] LEE S,KIM K,KIM J Y,et al.. Familiarity based unified visual attention model for fast and robust object recognition[J]. Pattern Recognition,2010,43(3):1116-1128.
    [10] 陈虎,凌朝东,张浩,等. 基于FPGA的实时彩色图像边缘检测算法的实现[J]. 液晶与显示,2015,30(1):143-150. CHEN H,LING CH D,ZHANG H,et al.. Real-time FPGA-based implementation of color image edge detection algorithm[J]. Chinese J. Liquid Crystals and Displays,2015,30(1):143-150.(in Chinese)
    [11] 黄鑫. 基于四元数的彩色图像边缘检测研究[J]. 液晶与显示,2014,29(3):466-472. HUANG X. Color image edge detection based on quaternion[J]. Chinese J. Liquid Crystals and Displays,2014,29(3):466-472.(in Chinese)
    [12] 邵静,高隽. 基于协同感知的视觉选择注意计算模型[J]. 中国图象图形学报,2008,13(1):129-136. SHAO J,GAO J. Visual selective attention computational model based on synergetic perception[J]. J. Image and Graphics,2008,13(1):129-136.(in Chinese)
    [13] 王娇,罗四维,钟晶晶,等. 轮廓编组中的线索合并模型[J]. 中国图象图形学报,2013,18(7):813-817. WANG J,LUO S W,ZHONG J J,et al.. Cue combination model for contour grouping[J]. J. Image and Graphics,2013,18(7):813-817.(in Chinese)
    [14] 吕国豪,罗四维,黄雅平,等. 基于卷积神经网络的正则化方法[J]. 计算机研究与发展,2014,1(9):1891-1900. LV G H,LUO S W,HUANG Y P,et al.. A novel regularization method based on convolution neural network[J]. J. Computer Research and Development,2014,1(9):1891-1900.(in Chinese)
    [15] CAVINA P C,KENTRIDGE R W,HEYWOOD C A,et al.. Separate channels for processing form, texture and color: evidence from fmri adaptation and visual object agnosia[J]. Cerebral Cortex,2010,20:2319-2332.
    [16] JOST T,OUERHANI N,WARTBURG R V,et al.. Assessing the contribution of color in visual attention[J]. Computer Vision and Image Understanding,2005,100(1):107-123.

  • [1] 张瑞琰, 姜秀杰, 安军社, 崔天舒.  面向光学遥感目标的全局上下文检测模型设计 . 中国光学, 2020, 37(6): 1-12. doi: 10.37188/CO.2020-0057
    [2] 姜涛, 张桂林, 高俊鹏.  面向机器视觉检测的缸体横孔照明 . 中国光学, 2020, 13(6): 1-9. doi: 10.37188/CO.2020-0054
    [3] 王军, 何昕, 魏仲慧, 穆治亚, 吕游, 何家维.  基于区域滤波的模糊星图复原方法 . 中国光学, 2019, 12(2): 321-331. doi: 10.3788/CO.20191202.0321
    [4] 尹茂军, 潘腾, 刘士浩, 谢文法, 张乐天.  CdSe/ZnS量子点下转换膜的红、绿、蓝顶发射有机发光器件 . 中国光学, 2019, 12(6): 1431-1441. doi: 10.3788/CO.20191206.1431
    [5] 王贤敏, 刘东, 臧仲明, 吴兰, 严天亮, 周宇豪, 张与鹏.  可用于单幅闭合干涉图相位恢复的正则化相位跟随技术 . 中国光学, 2019, 12(4): 719-730. doi: 10.3788/CO.20191204.0719
    [6] 吴言枫, 王延杰, 孙海江, 刘培勋.  复杂动背景下的“低小慢”目标检测技术 . 中国光学, 2019, 12(4): 853-865. doi: 10.3788/CO.20191204.0853
    [7] 谭翠媚, 许廷发, 马旭, 张宇寒, 王茜, 闫歌.  图-谱结合的压缩感知高光谱视频图像复原 . 中国光学, 2018, 11(6): 949-957. doi: 10.3788/CO.20181106.0949
    [8] 穆治亚, 艾华, 樊孝贺, 何昕, 何丁龙, 韩冬松, 于国栋.  采用整体最小二乘法的条纹图配准方法 . 中国光学, 2016, 9(6): 625-632. doi: 10.3788/CO.20160906.0625
    [9] 李华, 杨华民, 赵建平, 陈纯毅.  特效电影工程中混合分辨率阴影图设计与硬阴影反走样 . 中国光学, 2016, 9(1): 89-96. doi: 10.3788/CO.20160901.0089
    [10] 张绍阳, 侯旭阳, 崔华, 高小梅.  利用激光散斑获取深度图 . 中国光学, 2016, 9(6): 633-641. doi: 10.3788/CO.20160906.0633
    [11] 成培瑞, 王建立, 王斌, 李正炜, 吴元昊.  基于多尺度区域对比的显著目标识别 . 中国光学, 2016, 9(1): 97-105. doi: 10.3788/CO.20160901.0097
    [12] EMDEBenjamin, HERMSDORFJörg, KAIERLEStefan, OVERMEYERLudger.  利用Nd: YAG激光诱导击穿光谱法检测橡胶共混物中锌的均匀性分布 . 中国光学, 2015, 8(4): 596-602. doi: 10.3788/CO.20150804.0596
    [13] 于海, 万秋华, 王树洁, 卢新然, 杜颖财.  编码器动态检测系统高实时性高精度角度基准设计 . 中国光学, 2015, 8(3): 447-455. doi: 10.3788/CO.20150803.0447
    [14] 杨名宇, 李刚.  利用区域信息的航拍图像分割 . 中国光学, 2014, 7(5): 779-785. doi: 10.3788/CO.20140705.0779
    [15] 王永红, 李骏睿, 孙建飞, 刘佩, 杨连祥.  散斑干涉相位条纹图的频域滤波处理 . 中国光学, 2014, 7(3): 389-395. doi: 10.3788/CO.20140703.0389
    [16] DONATI Silvano, 王昭, 禹延光.  用于光电仪器和相关测量的自混合干涉技术(特邀) . 中国光学, 2012, 5(2): 93-115. doi: 10.3788/CO.20120502.0093
    [17] 刘伟宁.  基于小波域扩散滤波的弱小目标检测 . 中国光学, 2011, 4(5): 503-508.
    [18] 董宇星, 刘伟宁.  基于灰度特性的海天背景小目标检测 . 中国光学, 2010, 3(3): 252-256.
    [19] 程灵燕, 苏宛新, 程飞燕.  基于TMS320C6416的光电实时跟踪自引导系统的实现 . 中国光学, 2009, 2(5): 432-437.
    [20] 吴文荣, 吴倩, 黄燕华.  应用于微靶装配的显微视觉检测技术 . 中国光学, 2008, 1(1): 75-79.
  • 加载中
图(3) / 表 (1)
计量
  • 文章访问数:  442
  • HTML全文浏览量:  80
  • PDF下载量:  703
  • 被引次数: 0
出版历程
  • 收稿日期:  2015-07-12
  • 录用日期:  2015-09-20
  • 刊出日期:  2015-01-25

图像序列的显著性目标区域检测方法

doi: 10.3788/CO.20150805.0768
    基金项目:  国家高技术研究发展计划(863计划)资助项目(No.2012AA040104);吉林省科技厅资助项目(No.20120332);吉林省发改委资助项目(No.2013C048);吉林省科技厅国际合作资助项目(No.20140105);吉林省教育厅资助项目(No.20130434,No.20140032)
    通讯作者: 柯洪昌(1981—),男,吉林德惠人,硕士,讲师,2004年、2007年于吉林大学分别获得学士、硕士学位,主要从事嵌入式系统、目标识别和目标跟踪方面的研究。 E-mail:kehongchang1981@163.com孙宏彬(1969—),男,吉林四平人,博士后,教授, 1991年、1997年于华北电力大学分别获得学士、硕士学位,2007年于东华大学获得博士学位,2010年于吉林大学博士后出站,主要从事智能信息系统、计算机视觉和机器学习方面的研究。 E-mail:Win_shb@163.com
  • 中图分类号: TP391.4

摘要: 针对传统视觉显著性模型在自顶向下的任务指导和动态信息处理方面的不足,设计并实现了融入运动特征的视觉显著性模型。利用该模型提取了图像的静态特征和动态特征,静态特征的提取在图像的亮度、颜色和方向通道进行,运动特征的提取采用基于多尺度差分的特征提取方法实现,然后各通道分别通过滤波、差分得到显著图,在生成全局显著图时,提出多通道参数估计方法,计算图像感兴趣区域与眼动感兴趣区域的相似度,从而可在图像上准确定位目标位置。针对20组视频图像序列(每组50帧)进行了实验,结果表明:本文算法提取注意焦点即目标区域的平均相似度为0.87,使用本文算法能够根据不同任务情境,选择各特征通道的权重参数,从而可有效提高目标搜索的效率。

English Abstract

柯洪昌, 孙宏彬. 图像序列的显著性目标区域检测方法[J]. 中国光学, 2015, 8(5): 768-774. doi: 10.3788/CO.20150805.0768
引用本文: 柯洪昌, 孙宏彬. 图像序列的显著性目标区域检测方法[J]. 中国光学, 2015, 8(5): 768-774. doi: 10.3788/CO.20150805.0768
KE Hong-chang, SUN Hong-bin. A saliency target area detection method of image sequence[J]. Chinese Optics, 2015, 8(5): 768-774. doi: 10.3788/CO.20150805.0768
Citation: KE Hong-chang, SUN Hong-bin. A saliency target area detection method of image sequence[J]. Chinese Optics, 2015, 8(5): 768-774. doi: 10.3788/CO.20150805.0768
    • 视觉注意机制可以快速定位到当前图像中的一些显著性区域。视觉注意计算机模型可以不用人工参与快速查找到图像中感兴趣区域,对图像处理和图像复原等技术提供理论支持[1, 2, 3, 4, 5]。1998年,Itti和Koch等人建立了基于显著的空间注意计算机模型[6, 7],该模型在提取特征向量时采用多通道和多尺度的滤波器对图像进行滤波,在提取特征后,用中央-外围(Center-Surround)算子来模拟细胞的感受野特性,从而获得显著图;然后根据生成的显著图,用胜者全胜(WTA)机制来确定显著性区域,从而得到待检测目标[8, 9, 10, 11]

      当前有些学者将协同感知理论[12]、多尺度分析和编组、多尺度熵理论应用到视觉注意的整合阶段[13, 14],并取得了较好的效果。但是这些模型仅是基于空间注意,并且在处理动态信息时略显不足。并且大部分模型往往都存在计算复杂性过高的问题。一些关于心理学及神经科学的研究成果表明,在视觉通路中,对于亮度、颜色和方向等特征的提取通常并不需要同等对待,往往都会随着自顶向下给出任务的不同而不同,这种特征权重随任务而改变的视觉信息处理机制使得人们能够快速有效地定位目标[15, 16]。因此,需要根据任务情境的不同计算相应通道的特征权重值,来指导全局显著图的生成,进而准确地定位目标。

      本文在前人工作的基础上,设计并实现了一个融入运动特征的视觉显著性模型,基于这个模型,提出一种基于多尺度差分的运动特征提取方法,在指导全局显著图的生成时,基于多通道参数估计方法计算各通道在整合时的权重,从而能准确定位目标在图像上的位置。

    • 本文首先提取当前帧图像的亮度、颜色和方向信息,通过高斯金字塔和小波分解滤波,然后归一化处理计算得到多尺度特征,生成各个通道的显著图;在得到运动显著图时,要对当前帧和前一帧图像分别滤波提取动态特征,然后对两帧图像的特征图进行多尺度的差分,再融合为运动显著图;最终通过多通道加权方法生成全局显著图,采用WTA机制来最终得到感兴趣区域,即注意焦点。融入运动特征的视觉显著性模型如图1所示。

      图  1  融入运动特征的视觉显著性模型

      Figure 1.  Visual saliency model fused with motion features

      本文生成全局显著图,将亮度显著图、颜色显著图、方向显著图和运动显著图进行多尺度融合。全局显著图S的计算公式如下,

      式中,I~代表亮度显著图,C~代表颜色显著图,O~代表方向显著图,M~代表运动显著图,α,β,γ,λ是权重系数,满足α+β+γ+λ=1,通过提出的多通道参数估计方法得到,具体算法详见下节内容。

    • 静态显著性特征的提取是在Itti视觉注意模型基础上进行的。本文在方向特征提取上进行了改进,使融合后的静态显著图更有利于和动态显著图融合。对输入图像用9层高斯金字塔进行滤波,提取亮度、颜色、方向特征,由于视觉神经元一般对于视觉场景中一小段范围最敏感,而对于它的周围有局部的抑制作用,因此这里对于亮度和颜色,采用中央-外围(Center-Surround)算子进行差分,它是基于DoG(Diffrence of Gaussions)方式:

      σ1<σ2时,G(x,y)称为二维ON型DoG算子;当σ1>σ2时,G(x,y)称为二维OFF型DoG算子。σ1的作用是控制Center(中央凹)的敏感区,而σ2的作用是控制Surround(外围)的敏感区。

      对于输入图像I的亮度特征I(c,s),可以用尺度差分得到:

      式中,c代表Center的某一尺度,c∈{2,3,4},即9层中的第2,3,4层;其中s代表Surround的某一尺度,s∈{3,4},即9层中的第3,4层,代表两个特征图的每个像素作差分。

      同理,输入图像I的颜色特征C(c,s)也可用尺度差分得到:
      由于输入图像场景中要提取的注意焦点存在运动特征,因此图像的方向特征提取与亮度和颜色特征提取方式不同,通过小波变换的Mallat算法进行9个尺度的小波分解,其中将小波分解中的三个高频分量组成方向金字塔,则方向特征O(c,s,θ)在4个方向上进行尺度差分得到O(σ,θ):

      式中,c代表Center的某一尺度,c∈{2,3,4},即9层中的第2,3,4层,θ∈{0,π/4,π/2,3π/4},代表4个方向。

    • 运动特征的提取并没有采用传统的帧差法来处理,本文提出一种基于多尺度差分的运动特征提取方法,方法原理为:对相邻两帧图像进行不同尺度的滤波,可得到图像Iσ,其中σ∈{0,1,2,3,4},代表5个尺度,设当前帧图像为It(x,y),前一帧图像为It-1(x,y),图像It(x,y)金字塔中的每一层图像可以通过上一层的图像通过差分迭代生成,同理我们可以得到其他层图像金字塔。如式(6)所示。

      式中,σ代表金字塔的尺度,γ的值取1,-1。

      式(7)为xy的范围,满足0≤2x≤wσ-1k0≤2y≤hσ-1k。因此Iσ的宽度wσk和高度hσk满足:
      对于图像的运动特征Mt(c,s)为:

      式中,c,s∈{0,1,2,3,4},为两个相邻帧图像的每个对应像素作差分。

    • 首先根据提取的静态特征,生成3个静态特征通道的显著图,包括亮度显著图、颜色显著图和方向显著图。

      式中,I~,C~,O~分别为亮度显著图、颜色显著图和方向显著图。N()代表归一化函数,将颜色、亮度和方向特征图进行归一化。为不同尺度图像的每个像素点对应相加。

      根据提取的运动特征,生成运动显著图

      对每一幅运动特征图进行归一化,再融合就形成了动态显著图。

    • 基于本文设计的融入动态特征的视觉显著性模型,提出了一种新的基于多通道加权的参数估计方法,通过计算图像感兴趣区域(ROI)与眼动感兴趣区域的相似度来估计多通道参数。使用这样估计的参数对多通道进行加权,能够使得计算得到的图像感兴趣区域尽可能地与眼动感兴趣区域相近,从而能在图像上准确定位目标位置。

      首先定义图像的点相似度,如式(13)所示,

      式中,I1,I2分别代表显著图和眼动图的掩模图,n代表图像像素总数,fi,gi代表分别代表显著图和眼动图在i点的像素值。

      点相似度只能衡量相似点的差异度,不能反映显著性目标的位置信息,所以引入位置相似度,如式(14)所示。

      式中,X1,Y1代表显著图的ROI的质心,X2,Y2代表眼动图的ROI的质心,质心为图像ROI区域的所有像素的均值,即数学期望;W、H分别代表图像的宽度和高度。

      将点相似度和位置相似度结合即为图像的相似度,如式(15)所示。

      利用式(15)来计算图像感兴趣区域(ROI)与眼动感兴趣区域的相似度,其中眼动ROI是固定的,分别调整底层各个通道的显著图的参数,得到相似度,当得到最大相似度时就为最优参数值。

    • 根据本文提出的算法,用Matlab进行仿真实验,验证本文提出算法的有效性。针对20组视频图像序列(每组50帧)进行了实验,实验选取所有测试视频图像序列来自CDNET2012和CVPapers库。为体现根据任务情境实现的自顶向下的指导作用,所选取的图像序列中大多含有单个或多个突出目标。在这些实验中随机选取了3组图像序列,取得了较为满意的实验结果。

      图  2  视觉显著性模型多通道显著图

      Figure 2.  Multi-channel saliency maps of visual saliency model

      图2为本文提出融入动态特征视觉显著性模型生成的多通道显著图。从图像中分别提取各通道的显著性特征,经过差分并归一化后得到各通道的显著图。其中图2(a)为实验原图,选取3组图像序列,图2(b)为亮度显著图、图2(c)为颜色显著图,图2(d)为方向显著图、图2(e)为运动显著图。如图2(e)的运动显著图所示,在场景中,静态特征被有效抑制,图像中具有运动特征的汽车和人得到了加强,从而验证了本文提出的模型对于具有运动特征的目标区域检测的有效性。

      表1为多通道参数估计权值平均值的部分实验结果。通过分析比较显著图ROI和眼动图ROI的相似度来评价文本提出算法的准确性和有效性。将全局显著图S 归一化为0~255,提取出注意焦点,即ROI。其中3组图像序列(每组50帧图像)的4个底层特征的权重值为每组图像的平均值。表1给出了眼动ROI和本文提出算法提取到的ROI之间满足最大相似度的各个特征通道的权值平均值。

      表 1  多通道参数估计权值平均值的部分实验结果

      Table 1.  Part results of the avarage values of the multi-channel parameter estimation

      表1中可以看出,不同底层特征对ROI的影响不同,同一底层特征对不同类型图像的影响程度也不同,由于前两组图像中的汽车都有明显的颜色特征和运动特征,所以颜色和运动特征的权重较大,由于第3组图像的3个人相对其他目标运动特征较明显,所以运动特征的权重较大,其他3个特征权重较小,通过运动特征可以描述图像的ROI,从而减少计算量。

      图3为Itti算法和本文算法的比较结果,给出20组视频图像序列中每组图像最终计算的ROI与眼动ROI的相似度平均值,可以看出本文算法的大部分图像序列的平均相似度要大于Itti算法的平均相似度,说明文本算法提取的ROI更准确,从而可有效提高目标搜索的效率。

      图  3  20组图像的平均相似度比较

      Figure 3.  Average similarity of 20 group images

    • 本文设计并实现了融入运动特征的视觉显著性模型,并在此模型基础上,利用基于多尺度差分的运动特征提取方法提取运动特征,然后生成运动显著图。在生成全局显著图时,提出了一种基于多通道参数估计算法,算法通过计算图像感兴趣区域(ROI)与眼动感兴趣区域的相似度来估计多通道参数,为目标在图像上的准确定位提供计算机制。针对20组视频图像序列(每组50帧)进行了实验,结果表明:本文算法提取注意焦点即目标区域的平均相似度为0.87,能更高效准确地定位目标可能存在的区域。

      同时,本文算法还存在有待改进之处。算法中自顶向下的指导依赖于给定知识库中目标的信息点集合的统计结果,当目标区域较小且运动过慢时,运动特征提取的准确性有待提高。下一步工作的方向是提高复杂场景下该算法的鲁棒性。

参考文献 (1)

目录

    /

    返回文章
    返回