《电子技术应用》

基于梯度特征与彩色特征相融合的mean shift跟踪方法

来源:微型机与应用2011年第3期 作者:李平生,李小霞
2011/5/17 0:00:00

摘  要: 针对mean shift跟踪方法中存在的光照变化不稳定问题,提出了基于梯度特征与彩色特征相融合的mean shift跟踪方法。首先分别提取目标的梯度特征和彩色特征,利用多尺度的相似度计算方法进行特征的匹配,然后通过最大化相似度对目标进行跟踪。通过物体和人体等运动目标的跟踪,验证了改进的跟踪算法在光照变化情况下的鲁棒性优于原有的算法,显著降低了跟踪位置误差。
关键词: 目标跟踪;mean shift;梯度图像;多尺度相似度量

    目标跟踪是计算机视觉领域的热门研究课题,在军事制导、视觉导航、安全监控、视频编码等方面有着广泛的应用。基于mean shift的目标跟踪[1]方法由于其计算速度快、模型简单和较好的跟踪性能,近年来一直受到广大研究者的重视。这种方法采用加权颜色直方图的形式对目标进行特征描述,在每帧图像中通过求解目标模型和候选模型相似度的最大值来确定目标的位置。虽然mean shift跟踪方法采用的模型比较简单,对目标的形变、旋转有一定的稳定性,但是这种方法只利用了目标的颜色信息,当场景中光照发生变化时,目标的颜色分布也会随之变化,从而导致跟踪过程的不稳定性。同时,mean shift跟踪方法中采用单层直方图的目标特征描述,在光照变化时,会带来较大的误差。
    针对mean shift跟踪方法跟踪过程中的光照不稳定的问题,Hager[2]提出了建立精确的模型来对光照变化建模;Freedman[3]结合了光流信息,采用Graph-Cut算法提出了一种光照鲁棒的跟踪方法;针对目标直方图丢失了目标的空间信息的缺点,Yang[4]等人提出了一种新的目标表示方法及其对应的mean shift跟踪算法,以反映目标的空间信息;李培华[5]提出了将图像的位置信息加入到颜色直方图中;针对原始算法只采用一个特征的缺点,王永忠[6]等人提出将颜色信息和纹理信息进行自适应融合的跟踪方法;针对跟踪过程中单层相似度存在匹配不准确的问题,Rubner[7]提出了一种cross-bin直方图度量,考虑了不同位置的特征量化级(bin)之间的相关性;Granman[8]提出了一种用于物体类别识别的匹配方法(Pyramid Match),将特征空间划分为多层次的Pyramid直方图,在不同尺度下计算bin之间的相似度,融合了多尺度的bin之间的关系。虽然这些方法都在一定程度上改进了原有的mean shift算法,但是都存在计算量大的问题,不能满足实时性的要求。
    为了提高跟踪算法的鲁棒性,本文提出的方法首先融合了目标的梯度特征。该特征计算简单,描述了目标的边缘特性,对光照的变化具有较强的鲁棒性。其次,在目标匹配的过程中,采用多尺度直方图特征进行目标的匹配,这种匹配方法避免了由于光照变化引起的单尺度直方图匹配的误差。
1 梯度图像
    梯度特征描述了图像的边缘、角点等局部区域变化的信息,对于光照的变化具有较强的鲁棒性,广泛运用在目标特征描述、图像匹配和目标检测中。本文采用了梯度特征的幅度信息,首先用Sobel算子分别计算图像在0°、45°、90°和135°的幅值I1、I2、I3、I4,然后合并各个方向的梯度幅值图像,其计算如下:
    I=(I1+I2+I3+I4)/4     (1)
其中I为合并后的图像。
    Sobel算子模板如图1所示。



    但是由于光线的变化,目标的特征分布,特别是目标的颜色分布也会发生变化。因此,这种单层的相似度量就会出现比较大的误差,进而出现跟踪的失败。为了


5 试验结果
    仿真环境为:联想台式机电脑,其CPU为Intel(R)Pentium(R)D2.80 GHz,内存1 GB;操作系统为Windows XP Professional,SP2,软件采用VC6.0及OPENCV1.0。
    实验用到的视频序列是在实验室环境下采集到的物体运动的视频和人体运动的视频,序列图像的尺寸为640×480,在图像序列一中,人手拿的一支笔在视野中做无规则的运动,如图2所示。视频序列二是人体在视野中做无规则的运动,在跟踪的过程中阳光从窗户照进来,目标在靠近窗户和远离窗户的时候,其外观特征会跟随光照的变化而变化,如图3所示。实验由人工手动捕捉目标。

    实验比较了原始的mean shift算法和改进的mean shift算法,两种算法都用到图像的RGB色彩空间。其中原始的mean shift算法采用16×16×16的直方图,改进的mean shift算法则采用3尺度的颜色模型,每个尺度的直方图的bin分别为16×16×16、8×8×8、4×4×4。
    梯度图像采用16×16×16的直方图。在通过大量的实验得出的取值范围在0.3~0.6之间最好,本文中α取0.5。
从图2、3可以看出,原始的mean shift跟踪方法由于受到光照的影响,当目标从光线弱的区域进入到光线较强的区域时,目标的颜色特征发生了变化,导致了目标的跟踪不稳定,以至于最后失去了目标。改进的mean shift跟踪方法由于融合了目标的光照不变特征描述,在光照变化时,还是能够匹配到目标,因此在整个过程中始终能够跟踪到目标。而且在相似度量的计算上采用多尺度的颜色特征描述,在一定程度上增加了色彩特征匹配的鲁棒性。
    分别计算两种算法中每一帧的跟踪结果与参考位置的误差,图4为两种算法在实验中的位置误差比较的结果。可以看出,在光线变化缓慢的区域两种算法的误差接近,但是当光线变化显著时,原始算法的误差就会大大地增加,以至于最后失去目标,而改进的mean shift跟踪方法仍能够跟踪目标。

    从表1可以看出,本文提出的算法在跟踪过程中平均相似度比原始算法提高了0.252 8,这说明了本文的算法在跟踪过程中比原始算法更加精确。
    由于mean shift算法本身存在速度的限制,在跟踪过程中,目标的运动速度不能过快。通过实验得出在前后两帧中,目标的运动速度不能超过目标区域长度的一半。
    本文将图像梯度特征引入到mean shift跟踪算法中,同时,该方法采用了多尺度的相似度量,物体和人体的跟踪实验验证了改进的跟踪算法在光线的变化时具有鲁棒性,显著降低了跟踪位置误差,相似度提高了0.252 8。mean shift跟踪算法本质上是梯度下降跟踪方法,对目标的运动速度有较大的限制,在以后的研究中将尝试采用粒子滤波的方法来解决这个问题。
参考文献
[1] COMANICIU D, RAMESH V, MEER P. Kernel-based object tracking[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2003, 25:564-577.
[2] HAGER G D, BELHUMEUR P N. Efficient region tracking with parametric models of geometry and illumination[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1998, 20(10):1025-1039.
[3] FREEDMAN D,TUREK M. Illumination-invariant tracking via graph cuts[C]. IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Sna Diego: IEEE Press, 2005:10-17.
[4] YANG C J, DURAISWAMI R, DAVISL S. Efficient mean-shift tracking via a new similarity measure[C]. Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. San Diego, USA: IEEE, 2005:176-183.
[5] 李培华.一种改进的Mean Shift跟踪算法[J].自动化学报,2007,33(4):347-354.
[6] 王永忠,梁彦,赵春晖,等.基于多特征自适应融合的核跟踪方法[J].自动化学报,2008, 34(4):393-399.
[7] RUBNER Y, TOMASI C, GUIBAS L J. The earth mover's distance as a metric for image retrieval[J]. International Journal of Computer Vision, 2000, 40(2):99-121.
[8] GRAUMAN K, DARRELL T. The pyramid match kernel:discriminative classification with sets of image features[C]. IEEE International Conference on Computer Vision. Beijing: IEEE Press, 2005:1458-1465.
[9] LI L Y, HUANG W M, GU I Y H, et al. Statistical modeling of complex backgrounds forforeground object detection[J]. IEEE Transactions on Image Processing, 2004, 13(11):1459-1472.

继续阅读>>