文獻(xiàn)標(biāo)識(shí)碼: A
文章編號(hào): 0258-7998(2012)04-0123-03
隨著多媒體和網(wǎng)絡(luò)技術(shù)的發(fā)展,視頻監(jiān)控系統(tǒng)日益普及。如何進(jìn)一步對(duì)視頻內(nèi)容進(jìn)行智能化分析已成為人們的研究熱點(diǎn)。因此,基于視頻分析的運(yùn)動(dòng)物體行為理解與目標(biāo)異常檢測(cè)受到了眾多研究學(xué)者廣泛的關(guān)注,尤其是針對(duì)密集場(chǎng)景中的人群行為的分析,有助于制定人群管理策略,避免人群過(guò)度擁擠、維護(hù)人身安全,及應(yīng)對(duì)突發(fā)事件。Brendan[1]提出了基于學(xué)習(xí)運(yùn)動(dòng)軌跡內(nèi)在重復(fù)結(jié)構(gòu)的實(shí)時(shí)視頻行為理解框架,用于維護(hù)公共場(chǎng)所人群的管理監(jiān)控。
目前,密集場(chǎng)景中主流運(yùn)動(dòng)模式的獲取大多采用軌跡聚類(lèi)方式。如Khalid 和Naftel [2]采用時(shí)間序列模型應(yīng)用到運(yùn)動(dòng)物體軌跡聚類(lèi)和模式識(shí)別中,把高維的軌跡數(shù)據(jù)投影到合適的低維系數(shù)空間中再進(jìn)行軌跡聚類(lèi)。Zeppelzauer[3]等提出的軌跡聚類(lèi)方法直接通過(guò)反復(fù)迭代的方式聚類(lèi)整個(gè)運(yùn)動(dòng)軌跡。然而B(niǎo)ashir認(rèn)為需要在軌跡聚類(lèi)前有必要把軌跡分裂成子軌跡再分別聚類(lèi)[4]。Atev[5]結(jié)合基于霍夫聚類(lèi)軌跡聚類(lèi)和頻譜聚類(lèi)的優(yōu)勢(shì),提出了一種車(chē)輛運(yùn)動(dòng)軌跡自動(dòng)聚類(lèi)算法,Antonini和Thiran[6]指出把運(yùn)動(dòng)軌跡進(jìn)行獨(dú)立成分分析之后產(chǎn)生的運(yùn)動(dòng)描述比最初的時(shí)間序列描述更有效。與Cheryiyadat[7]的軌跡聚類(lèi)方式不同,本文的聚類(lèi)方式不需要利用光流信息來(lái)跟蹤特征點(diǎn),目標(biāo)是檢測(cè)群體主流運(yùn)動(dòng)而非個(gè)體的運(yùn)動(dòng),不需要合并或者預(yù)處理這些點(diǎn)軌跡。使用一種比光流更為魯棒性的長(zhǎng)距離運(yùn)動(dòng)估計(jì)——粒子視頻算法來(lái)獲取復(fù)雜場(chǎng)景中的長(zhǎng)距離運(yùn)動(dòng)軌跡[8]。粒子視頻算法利用一個(gè)結(jié)合粒子外觀匹配一致性和粒子間形變的能量函數(shù)來(lái)優(yōu)化運(yùn)動(dòng)場(chǎng)景中的粒子軌跡,從而避免了長(zhǎng)周期運(yùn)動(dòng)引起的運(yùn)動(dòng)漂移。
式中Z代表總的粒子軌跡數(shù)目。本文的目標(biāo)就是聚類(lèi)這些運(yùn)動(dòng)軌跡生成主流運(yùn)動(dòng)模式。其中軌跡的長(zhǎng)短對(duì)應(yīng)該粒子被持續(xù)跟蹤的時(shí)間,把這些粒子軌跡作為輸入,利用基于最長(zhǎng)共同子序列的算法進(jìn)行軌跡聚類(lèi),得到主流運(yùn)動(dòng)。其基本流程如圖1所示。
本文提出了一種通過(guò)聚類(lèi)低層次的粒子軌跡來(lái)自動(dòng)識(shí)別人群中主流運(yùn)動(dòng)的算法,采用一種長(zhǎng)周期魯棒性的運(yùn)動(dòng)估計(jì)方法從密集人群場(chǎng)景中得到的粒子軌跡總是片段的,而利用最長(zhǎng)共同子序列聚類(lèi)軌跡,得到運(yùn)動(dòng)的主流方向。實(shí)驗(yàn)結(jié)果表明,提出的聚類(lèi)算法可以通過(guò)聚類(lèi)這些片段粒子軌跡來(lái)識(shí)別人群中的主流。聚類(lèi)得到的主流運(yùn)動(dòng)軌跡可以作為長(zhǎng)周期運(yùn)動(dòng)目標(biāo)的語(yǔ)義表示。
參考文獻(xiàn)
[1] MORRIS B T, TRIVEDI M M. Trajectory learning for activity understanding: unsupervised, multilevel, and long-term adaptive approach[J]. IEEE Trans. Pattern Analysis and Machine Intelligence, 2011,33(11):2287-2301.
[2] KHALID S, NAFTEL A. Classifying spatiotemporal object trajectories using unsupervised learning in the coefficient feature space[J].Multimedia Systems, 2006,12(3):227-238.
[3] ZEPPELZAUER M, ZAHARIEVA M, MITROVIC D, et al. A novel trajectory clustering approach for motion segmentation[C]. In Proceedings of IEEE Multimedia Modeling Conference,2010:433-443.
[4] BASHIR F I, KHOKHAR A A, SCHONFELD D. Realtime motion trajectory-based indexing and retrieval of video sequences[J]. IEEE Trans. on Multimedia, 2007,9(1): 58-65.
[5] ATEV S, MILLER G, PAPANIKOLOPOULOS N P. Clustering of vehicle trajectories[J]. IEEE Trans.on Intelligent Transportation Systems, 2010,11(3):647-657.
[6] ANTONINI G, THIRAN J P. Counting pedestrians in video sequences using trajectory clustering[J]. IEEE Trans. Circuits Systems Video Technol,2006,16(8):1008-1020.
[7] CHERIYADAT A, RADKE R. Detecting dominant motions in dense crowds[J]. IEEE Journal of Selected Topics in Signal Processing, 2008,2(4):568-581.
[8] SAND P, TELLER S. Particle video: long-range motion estimation using point trajectories[C]. IEEE Computer Society Conference on Computer Vision and Pattern Recognition, New York: IEEE Computer Society,2006:2195-2202.