摘 要: 針對mean shift跟蹤方法中存在的光照變化不穩(wěn)定問題,提出了基于梯度特征與彩色特征相融合的mean shift跟蹤方法。首先分別提取目標(biāo)的梯度特征和彩色特征,利用多尺度的相似度計算方法進行特征的匹配,然后通過最大化相似度對目標(biāo)進行跟蹤。通過物體和人體等運動目標(biāo)的跟蹤,驗證了改進的跟蹤算法在光照變化情況下的魯棒性優(yōu)于原有的算法,顯著降低了跟蹤位置誤差。
關(guān)鍵詞: 目標(biāo)跟蹤;mean shift;梯度圖像;多尺度相似度量
目標(biāo)跟蹤是計算機視覺領(lǐng)域的熱門研究課題,在軍事制導(dǎo)、視覺導(dǎo)航、安全監(jiān)控、視頻編碼等方面有著廣泛的應(yīng)用?;趍ean shift的目標(biāo)跟蹤[1]方法由于其計算速度快、模型簡單和較好的跟蹤性能,近年來一直受到廣大研究者的重視。這種方法采用加權(quán)顏色直方圖的形式對目標(biāo)進行特征描述,在每幀圖像中通過求解目標(biāo)模型和候選模型相似度的最大值來確定目標(biāo)的位置。雖然mean shift跟蹤方法采用的模型比較簡單,對目標(biāo)的形變、旋轉(zhuǎn)有一定的穩(wěn)定性,但是這種方法只利用了目標(biāo)的顏色信息,當(dāng)場景中光照發(fā)生變化時,目標(biāo)的顏色分布也會隨之變化,從而導(dǎo)致跟蹤過程的不穩(wěn)定性。同時,mean shift跟蹤方法中采用單層直方圖的目標(biāo)特征描述,在光照變化時,會帶來較大的誤差。
針對mean shift跟蹤方法跟蹤過程中的光照不穩(wěn)定的問題,Hager[2]提出了建立精確的模型來對光照變化建模;Freedman[3]結(jié)合了光流信息,采用Graph-Cut算法提出了一種光照魯棒的跟蹤方法;針對目標(biāo)直方圖丟失了目標(biāo)的空間信息的缺點,Yang[4]等人提出了一種新的目標(biāo)表示方法及其對應(yīng)的mean shift跟蹤算法,以反映目標(biāo)的空間信息;李培華[5]提出了將圖像的位置信息加入到顏色直方圖中;針對原始算法只采用一個特征的缺點,王永忠[6]等人提出將顏色信息和紋理信息進行自適應(yīng)融合的跟蹤方法;針對跟蹤過程中單層相似度存在匹配不準(zhǔn)確的問題,Rubner[7]提出了一種cross-bin直方圖度量,考慮了不同位置的特征量化級(bin)之間的相關(guān)性;Granman[8]提出了一種用于物體類別識別的匹配方法(Pyramid Match),將特征空間劃分為多層次的Pyramid直方圖,在不同尺度下計算bin之間的相似度,融合了多尺度的bin之間的關(guān)系。雖然這些方法都在一定程度上改進了原有的mean shift算法,但是都存在計算量大的問題,不能滿足實時性的要求。
為了提高跟蹤算法的魯棒性,本文提出的方法首先融合了目標(biāo)的梯度特征。該特征計算簡單,描述了目標(biāo)的邊緣特性,對光照的變化具有較強的魯棒性。其次,在目標(biāo)匹配的過程中,采用多尺度直方圖特征進行目標(biāo)的匹配,這種匹配方法避免了由于光照變化引起的單尺度直方圖匹配的誤差。
1 梯度圖像
梯度特征描述了圖像的邊緣、角點等局部區(qū)域變化的信息,對于光照的變化具有較強的魯棒性,廣泛運用在目標(biāo)特征描述、圖像匹配和目標(biāo)檢測中。本文采用了梯度特征的幅度信息,首先用Sobel算子分別計算圖像在0°、45°、90°和135°的幅值I1、I2、I3、I4,然后合并各個方向的梯度幅值圖像,其計算如下:
I=(I1+I2+I3+I4)/4 (1)
其中I為合并后的圖像。
Sobel算子模板如圖1所示。


但是由于光線的變化,目標(biāo)的特征分布,特別是目標(biāo)的顏色分布也會發(fā)生變化。因此,這種單層的相似度量就會出現(xiàn)比較大的誤差,進而出現(xiàn)跟蹤的失敗。為了


5 試驗結(jié)果
仿真環(huán)境為:聯(lián)想臺式機電腦,其CPU為Intel(R)Pentium(R)D2.80 GHz,內(nèi)存1 GB;操作系統(tǒng)為Windows XP Professional,SP2,軟件采用VC6.0及OPENCV1.0。
實驗用到的視頻序列是在實驗室環(huán)境下采集到的物體運動的視頻和人體運動的視頻,序列圖像的尺寸為640×480,在圖像序列一中,人手拿的一支筆在視野中做無規(guī)則的運動,如圖2所示。視頻序列二是人體在視野中做無規(guī)則的運動,在跟蹤的過程中陽光從窗戶照進來,目標(biāo)在靠近窗戶和遠離窗戶的時候,其外觀特征會跟隨光照的變化而變化,如圖3所示。實驗由人工手動捕捉目標(biāo)。


實驗比較了原始的mean shift算法和改進的mean shift算法,兩種算法都用到圖像的RGB色彩空間。其中原始的mean shift算法采用16×16×16的直方圖,改進的mean shift算法則采用3尺度的顏色模型,每個尺度的直方圖的bin分別為16×16×16、8×8×8、4×4×4。
梯度圖像采用16×16×16的直方圖。在通過大量的實驗得出的取值范圍在0.3~0.6之間最好,本文中α取0.5。
從圖2、3可以看出,原始的mean shift跟蹤方法由于受到光照的影響,當(dāng)目標(biāo)從光線弱的區(qū)域進入到光線較強的區(qū)域時,目標(biāo)的顏色特征發(fā)生了變化,導(dǎo)致了目標(biāo)的跟蹤不穩(wěn)定,以至于最后失去了目標(biāo)。改進的mean shift跟蹤方法由于融合了目標(biāo)的光照不變特征描述,在光照變化時,還是能夠匹配到目標(biāo),因此在整個過程中始終能夠跟蹤到目標(biāo)。而且在相似度量的計算上采用多尺度的顏色特征描述,在一定程度上增加了色彩特征匹配的魯棒性。
分別計算兩種算法中每一幀的跟蹤結(jié)果與參考位置的誤差,圖4為兩種算法在實驗中的位置誤差比較的結(jié)果??梢钥闯?,在光線變化緩慢的區(qū)域兩種算法的誤差接近,但是當(dāng)光線變化顯著時,原始算法的誤差就會大大地增加,以至于最后失去目標(biāo),而改進的mean shift跟蹤方法仍能夠跟蹤目標(biāo)。

從表1可以看出,本文提出的算法在跟蹤過程中平均相似度比原始算法提高了0.252 8,這說明了本文的算法在跟蹤過程中比原始算法更加精確。
由于mean shift算法本身存在速度的限制,在跟蹤過程中,目標(biāo)的運動速度不能過快。通過實驗得出在前后兩幀中,目標(biāo)的運動速度不能超過目標(biāo)區(qū)域長度的一半。
本文將圖像梯度特征引入到mean shift跟蹤算法中,同時,該方法采用了多尺度的相似度量,物體和人體的跟蹤實驗驗證了改進的跟蹤算法在光線的變化時具有魯棒性,顯著降低了跟蹤位置誤差,相似度提高了0.252 8。mean shift跟蹤算法本質(zhì)上是梯度下降跟蹤方法,對目標(biāo)的運動速度有較大的限制,在以后的研究中將嘗試采用粒子濾波的方法來解決這個問題。
參考文獻
[1] COMANICIU D, RAMESH V, MEER P. Kernel-based object tracking[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2003, 25:564-577.
[2] HAGER G D, BELHUMEUR P N. Efficient region tracking with parametric models of geometry and illumination[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1998, 20(10):1025-1039.
[3] FREEDMAN D,TUREK M. Illumination-invariant tracking via graph cuts[C]. IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Sna Diego: IEEE Press, 2005:10-17.
[4] YANG C J, DURAISWAMI R, DAVISL S. Efficient mean-shift tracking via a new similarity measure[C]. Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. San Diego, USA: IEEE, 2005:176-183.
[5] 李培華.一種改進的Mean Shift跟蹤算法[J].自動化學(xué)報,2007,33(4):347-354.
[6] 王永忠,梁彥,趙春暉,等.基于多特征自適應(yīng)融合的核跟蹤方法[J].自動化學(xué)報,2008, 34(4):393-399.
[7] RUBNER Y, TOMASI C, GUIBAS L J. The earth mover's distance as a metric for image retrieval[J]. International Journal of Computer Vision, 2000, 40(2):99-121.
[8] GRAUMAN K, DARRELL T. The pyramid match kernel:discriminative classification with sets of image features[C]. IEEE International Conference on Computer Vision. Beijing: IEEE Press, 2005:1458-1465.
[9] LI L Y, HUANG W M, GU I Y H, et al. Statistical modeling of complex backgrounds forforeground object detection[J]. IEEE Transactions on Image Processing, 2004, 13(11):1459-1472.
