- 相關(guān)推薦
基于鏡像Mean Shift的遮擋目標(biāo)跟蹤算法
摘要:針對當(dāng)目標(biāo)跟蹤過程中目標(biāo)被全遮擋時易導(dǎo)致目標(biāo)跟蹤不精確、甚至丟失目標(biāo)的問題,提出一種基于鏡像Mean Shift的遮擋目標(biāo)跟蹤算法。當(dāng)前后幀Bhattacharyya系數(shù)匹配度大于等于80%時,表示目標(biāo)沒有被遮擋,采用顏色特征和輪廓特征定位目標(biāo),利用分塊沙包窗核函數(shù)實現(xiàn)尺寸自適應(yīng);當(dāng)前后幀Bhattacharyya系數(shù)匹配度小于80%時,表示目標(biāo)進入遮擋區(qū)域,則利用先驗訓(xùn)練分類器和鏡像原理對遮擋區(qū)域目標(biāo)的位置和尺寸大小進行預(yù)測;當(dāng)前后幀Bhattacharyya系數(shù)匹配度再次大于等于80%時,表示目標(biāo)離開遮擋區(qū)域,則轉(zhuǎn)換為Mean Shift跟蹤。當(dāng)目標(biāo)沒有遮擋時,采用顏色特征和輪廓特征定位目標(biāo),利用分塊沙包窗核函數(shù)實現(xiàn)尺寸自適應(yīng);當(dāng)目標(biāo)進入遮擋區(qū)域時,在改進的巴氏系數(shù)條件觸發(fā)下(低于設(shè)定閾值),利用先驗訓(xùn)練分類器和鏡像原理對遮擋區(qū)域目標(biāo)的位置和尺寸大小進行預(yù)測;當(dāng)目標(biāo)離開遮擋區(qū)域時,再次利用巴氏系數(shù)條件觸發(fā)(高于設(shè)定閾值)【什么】轉(zhuǎn)換為Mean Shift跟蹤實驗結(jié)果表明:所提算法與子區(qū)域分類器的在線Boosting算法和多視角多目標(biāo)協(xié)同追蹤算法相比,在目標(biāo)全遮擋的情況下能更好地跟蹤目標(biāo),提高了跟蹤精度和魯棒性,且滿足實時性要求。
關(guān)鍵詞:鏡像; Mean Shift; 全遮擋; 巴氏系數(shù); 目標(biāo)跟蹤; 全遮擋
引言
機器視覺技術(shù)廣泛應(yīng)用于軍事制導(dǎo)、視頻監(jiān)控、醫(yī)療診斷、產(chǎn)品檢測等領(lǐng)域[1-3]。而在上述領(lǐng)域中都會涉及目標(biāo)跟蹤,在跟蹤目標(biāo)的過程中,由于目標(biāo)本身特征的多樣性以及外界環(huán)境的復(fù)雜性,尤其當(dāng)目標(biāo)被自遮擋、物體相互遮擋、背景遮擋時,如何更精確地定位和跟蹤目標(biāo)成為一個極具挑戰(zhàn)性的課題[4]。Thompson等[5]提出利用光流場來檢測視頻中的遮擋面,但是沒有涉及如何跟蹤目標(biāo)。Maver等[6]從遮擋的角度出發(fā),研究如何獲得一個未知場景的3D數(shù)據(jù),利用幾何關(guān)系從先驗的紋理信息預(yù)測出遮擋時目標(biāo)狀態(tài),但是預(yù)測狀態(tài)的誤差會隨著跟蹤的進行而逐漸增大,同時計算復(fù)雜度高。Zitnick等[7]利用視差圖的方法解決遮擋問題,要求各個像素點具有唯一性,否則當(dāng)遇到相似目標(biāo)或者背景時易導(dǎo)致跟蹤失敗。在文獻[8-10]中學(xué)者利用分割理論提取遮擋區(qū)域的目標(biāo)解決目標(biāo)部分遮擋問題,對全遮擋情況誤差很大,甚至跟蹤失敗。Zhang等[11]通過幀內(nèi)、幀間、跟蹤等級三個順序?qū)哟螌崿F(xiàn)目標(biāo)遮擋跟蹤; 李沛等[12]提出基于信用度分類遮擋問題解決方法,對前后幀計算結(jié)果的連續(xù)性要求較高,否則計算得到的遮擋目標(biāo)定位精度不高。顏佳等[13]在遮擋環(huán)境下采用在線Boosting的目標(biāo)跟蹤,利用分區(qū)域的特征匹配法剔除被遮擋子區(qū)域?qū)δ繕?biāo)定位的影響,但對目標(biāo)尺寸發(fā)生變化并且伴有遮擋時的跟蹤問題沒有提供解決方案。龔衛(wèi)國等[14]提出一種像素投影算法(Running Average with Selectivily, RAS)背景更新,利用RAS對遮擋粘連目標(biāo)進行分離,采用濾波加Mean Shift 算法,并將其與 Kalman算法結(jié)合,實現(xiàn)紅外目標(biāo)的實時準(zhǔn)確跟蹤,較好地解決了部分遮擋問題。周良毅等[15]提出基于動態(tài)遮擋閾值的多視角多目標(biāo)協(xié)作追蹤,引入遮擋變量,改進了目標(biāo)遮擋的判決標(biāo)準(zhǔn)和公共平面中的目標(biāo)融合特征,并通過結(jié)合改進粒子濾波得到基于遮擋變量的多視角目標(biāo)協(xié)作追蹤算法。
上述目標(biāo)跟蹤算法對目標(biāo)被自遮擋、物體相互遮擋、背景遮擋時針對目標(biāo)部分遮擋跟蹤取得了較好的效果,但仍存在以下不足:1)目標(biāo)在部分遮擋的場景下提出的算法對目標(biāo)的定位不精確;2)涉及的是目標(biāo)部分遮擋跟蹤,而對于目標(biāo)在被相似目標(biāo)和背景全遮擋的場景下沒有提供很好的解決方案。
基于以上不足,本文提出一種基于鏡像Mean Shift的目標(biāo)遮擋處理算法。在沒有或者部分遮擋(D(n)≥0.8D(n-1))情況下,融合顏色特征和輪廓特征表述目標(biāo),然后利用沙包核窗函數(shù)和Mean Shift算法對目標(biāo)進行跟蹤,并將每幀的序號和目標(biāo)的位置信息保存在一個記憶隊列中;當(dāng)D(n)<0.8D(n-1)時,表明目標(biāo)處于完全遮擋的情況,記錄當(dāng)前閾值變化幀的序號(假設(shè)為第m幀),利用先驗訓(xùn)練分類器和鏡像原理可以預(yù)測在遮擋區(qū)域中目標(biāo)第n幀尺寸大小等于第2m-n幀的尺寸大小(已知),遮擋區(qū)域的目標(biāo)到臨界點的距離(第n幀到第m幀的距離)等于目標(biāo)從未遮擋區(qū)域(第2m-n幀)到臨界點(第m幀)的距離,從而可以確定目標(biāo)的位置信息。
一、傳統(tǒng)的Mean Shift目標(biāo)跟蹤算法
1.1顏色特征描述
設(shè)qc={qcu}u=1,2,…,Bc表示目標(biāo)參考顏色直方圖,{xi}i=1,2,…,n為中心位置y的目標(biāo)候選區(qū)域的像素位置,則目標(biāo)候選圖像區(qū)域的顏色加權(quán)直方圖pc={pcu(y)}u=1,2,…,Bc為:
pcu(y)=ch∑ni=1k(‖(y-xi)/h‖2)δ[bf(xi)-u](1)
其中:ch為顏色直方圖歸一化常數(shù);u為目標(biāo)特征值;k(・)為下列Epanechnikov核剖面函數(shù):
kE(r)=
1-r,r≤1
0,r>1 (2
對于離目標(biāo)中心位置越近的像素賦予較大的權(quán)值,對于遠離目標(biāo)中心位置的像素賦予較小的權(quán)值;h為核半徑;δ是Epanechnikov函數(shù);bf(・)是將給定位置的像素映射到顏色直方圖相應(yīng)顏色區(qū)間(color bin)的映射函數(shù)。
1.2輪廓特征描述
輪廓作為特征來描述目標(biāo)有一定的優(yōu)勢,輪廓的提取過程比較簡單,以目標(biāo)的形狀作為先驗信息,結(jié)合Bayesian理論來提取目標(biāo)的輪廓,當(dāng)目標(biāo)運動時目標(biāo)輪廓所包含的面積變化明顯。如果圖像中某一區(qū)域目標(biāo)靜止,則輪廓所包含的面積變化率很小,圖像的像素落到輪廓直方圖較低的顏色區(qū)間;如果該區(qū)域發(fā)生運動時,則相應(yīng)的輪廓所包含的面積變化率很大,圖像像素會落到輪廓直方圖的每個顏色空間,因此采用均勻分布模型。設(shè)qo={qou}u=1,2,…,Bo表示目標(biāo)參考輪廓直方圖,{xi}i=1,2,…,n為中心位置y的目標(biāo)候選區(qū)域的像素位置,則目標(biāo)候選圖像區(qū)域的輪廓加權(quán)直方圖po={pou(y)}u=1,2,…,Bo為:
pou(y)=ch∑ni=1k(‖(y-xi)/h‖2)δ[bf(xi)-u](3
1.3跟蹤窗的選取和遮擋跟蹤
傳統(tǒng)Mean Shift 跟蹤算法跟蹤窗采用固定尺寸的矩形窗以及利用分割算法和Kalman算法預(yù)測目標(biāo)在遮擋區(qū)域的狀態(tài)。當(dāng)目標(biāo)尺寸變化時,跟蹤窗包含目標(biāo)特征的同時,也包含更多的背景特征,導(dǎo)致定位不精確、計算復(fù)雜度高、實時性差; Kalman算法對目標(biāo)的位置和尺寸的預(yù)測,在短時間跟蹤或者部分遮擋的場景取得不錯的效果,但在長時間遮擋或者全遮擋的場景下,跟蹤誤差會逐漸增大,甚至跟蹤失敗,而實際場景長時間全遮擋的場景很常見,所以算法具有一定的局限性,影響跟蹤效果。
二、基于鏡像Mean Shift的遮擋目標(biāo)跟蹤算法
在部分遮擋的場景下,采用傳統(tǒng)的Mean Shift目標(biāo)跟蹤算法融合顏色特征和輪廓特征描述目標(biāo)和采用固定尺寸的矩形窗跟蹤目標(biāo),在精度要求不高的情況下可取得不錯的跟蹤效果。而在全遮擋和要求精度稍高的情況下,傳統(tǒng)算法具有局限性。因此本文采用一種基于鏡像Mean Shift的遮擋目標(biāo)跟蹤算法來優(yōu)化算法。在部分遮擋和沒有遮擋的情況下,采用改進的Bhattacharyya系數(shù)來優(yōu)化傳統(tǒng)的目標(biāo)定位方法,而跟蹤窗采用可自適應(yīng)的沙包窗跟蹤目標(biāo);根據(jù)前后幀Bhattacharyya系數(shù)匹配度是否大于80%判斷目標(biāo)是否遮擋,當(dāng)大于80%說明目標(biāo)是沒有遮擋或者部分遮擋,傳統(tǒng)算法仍然可以跟蹤,否則,根據(jù)記錄的先前序列號和位置信息利用鏡像原理可以預(yù)測出目標(biāo)的尺寸大小和位置信息,實現(xiàn)跟蹤。
2.1Bhattacharyya系數(shù)的選取
Bhattacharyya系數(shù)是衡量目標(biāo)參考模型和候選模型的最大相似度,當(dāng)取得最大相似度時可以定位目標(biāo),同時也可以根據(jù)前后兩幀的相似度是否小于80%來判定目標(biāo)是否被完全遮擋,條件成立時則判定為完全遮擋,跟蹤方式轉(zhuǎn)換為鏡像Mean Shift目標(biāo)跟蹤模式,以便更好地跟蹤目標(biāo)。傳統(tǒng)的Bhattacharyya系數(shù)計算有根號運算,計算復(fù)雜度高,本文選取文獻[16]式(4)的度量系數(shù)避免開方運算,降低運算復(fù)雜度:
(Y)=∑mu=1min (u,u(Y))(4
2.2Mean Shift目標(biāo)搜索
給定目標(biāo)參考顏色直方圖和目標(biāo)上一幀的估計中心位置0,則目標(biāo)在當(dāng)前幀的位置1可由式(5)目標(biāo)函數(shù)所得到:
D(y)≈λcρ(qc,pc(y))+λoρ(qo,po(y))(5)
其中:0≤λc≤1、 0≤λo≤1分別表示顏色特征和輪廓特征的權(quán)值,且λc+λo=1; ρ(・)表示兩直方圖的Bhattacharyya系數(shù)。將式(1)、(3)、(4)代入式(5)得到式(6):
D(y)=
min Ch∑ni=1(λc+λo)k(‖(y-xi)/h‖2)δ(bf(xi)-u) (6
利用式(7)進行Mean Shift迭代,當(dāng)核跟蹤窗口由位置0移到1時,函數(shù)D(y)將會遞增:
1=∑ni=1xiωig(‖(0-xi)/h‖2)∑ni=1ωig(‖(0-xi)/h‖2)(7)
其中:ωi=min Ch∑ni=1(λc+λo);g(x)=-k′(x)。令0←1,重復(fù)此迭代過程,直到‖1-0‖<ε或達到預(yù)先指定的迭代次數(shù)為止,ε是預(yù)先給的正數(shù),本文選取ε=0.02。
2.3特征自適應(yīng)融合
已知目標(biāo)當(dāng)前幀位置,設(shè)qc、qo、pcl、pol分別表示顏色直方圖、邊界直方圖、背景區(qū)域顏色直方圖、背景區(qū)域邊界直方圖;ρ(·)是表示兩直方圖的Bhattacharyya系數(shù)。假設(shè)顏色特征和輪廓特征在當(dāng)前幀的權(quán)值為λtc和λto,則顏色特征和輪廓特征下一幀的權(quán)值為:
λt+1c=(1-α)λtc+αρ(qo,pol)ρ(qc,pcl)+ρ(qo,pol)(8
λt+1b=(1-α)λtb+αρ(qc,pcl)ρ(qc,pcl)+ρ(qo,pol)(9)
其中:α為權(quán)值常數(shù),決定權(quán)值更新的速度; ρ(qc,pcl)ρ(qo,pol)表示哪個特征更準(zhǔn)確定位目標(biāo),當(dāng)比值大于1則說明ρ(qo,pol)輪廓特征能更好區(qū)分目標(biāo),所以用1-ρ(qc,pcl)[ρ(qc,pcl)+ρ(qo,pol)]來反映其在總體特征所占的比例,反之則用顏色特征。
2.4核窗寬自適應(yīng)
目標(biāo)通常不是標(biāo)準(zhǔn)的矩形或者橢圓形狀,常常是橢圓和矩形的復(fù)合體形狀,其形狀如圖1所示,故命名為沙包窗。沙包窗核函數(shù)既能包含特征目標(biāo),也能減少背景特征干擾,更加準(zhǔn)確地描述目標(biāo)。
圖片
圖1沙包窗模型
核窗寬調(diào)整原理如圖2所示。
圖片
圖2窗寬調(diào)整原理
在初始幀手動選取目標(biāo)區(qū)域,確定目標(biāo)窗口中心x0及核窗寬h,提取目標(biāo)的邊界最高點x1和最低中心點x2(最好3點在1條垂直線上),并分別計算x0與x1和x2的距離d1和d2。讀取下一幀,以上一幀窗口的中心為候選目標(biāo)中心進行Mean Shift迭代,得到候選目標(biāo)的新跟蹤窗口中心x0′,并根據(jù)分塊區(qū)域跟蹤窗口的Mean Shift迭代得到x1′和x2′,分別計算d1′和d2′,計算:
=(d1′/d1+d2′/d2)/2(10
以來調(diào)整窗寬,設(shè)內(nèi)接最大面積矩形的長為m,寬為n,矩形面積為定值mn=2ab;矩形上下部分的橢圓面積相等為:
s=πab2-an2bb2-n24-ab arcsin1-n24b2 (11
則更新跟蹤窗:
m=・m
n=・n
s=・πab2-an2bb2-n24-ab arcsin1-n24b2(12 2.5全遮擋處理
2.5.1鏡像原理
在空間放置一點電荷q,在其周圍產(chǎn)生磁場E,磁場中距離電荷q的距離為r處的磁場大小為:
E=kqr2(13
在同一線選取距離點電荷q的距離為r1、r2、r3的點分別為a1、b1、c1,而與之同等電勢(在水平軸)的點有a2、b2、c2其位置關(guān)于點電荷q對稱,故稱為“鏡像”,原理如圖3所示。
圖片
圖3鏡像原理
2.5.2全遮擋問題處理
當(dāng)目標(biāo)未進入遮擋區(qū)域時根據(jù)顏色特征和輪廓特征定位目標(biāo)以及用沙包核函數(shù)實現(xiàn)尺寸自適應(yīng);當(dāng)目標(biāo)進入遮擋區(qū)域時,在D(n)≥0.8D(n-1)時說明目標(biāo)沒有遮擋或者是部分遮擋,根據(jù)Mean Shift的魯棒性,仍然可以跟蹤目標(biāo),將當(dāng)前幀的序號和目標(biāo)的位置信息保存在一個記憶隊列中;在D(n)<0.8D(n-1)時說明目標(biāo)嚴重遮擋或者是全遮擋,此時利用鏡像原理預(yù)測目標(biāo)的位置和尺寸大小,當(dāng)前幀記為第n幀,尺寸大小為:
Cn=C2m-n(14
位置為:
Sn=vT(2m-n)(15)
其中:C為目標(biāo)尺寸大小即跟蹤窗的大小;m是目標(biāo)介于部分遮擋和全遮擋的序列幀數(shù)序號,T為每幀的耗時,假設(shè)目標(biāo)運動速度恒定為v;當(dāng)D(n)≥0.8D(n-1)時說明離開遮擋區(qū)域,同樣采用Mean Shift算法跟蹤。跟蹤原理如圖4所示。
分區(qū)
圖片
圖4跟蹤原理
三、算法步驟
基于上述分析,基于鏡像Mean Shift的目標(biāo)遮擋處理算法如下:
手動選取目標(biāo)區(qū)域,給定參考顏色直方圖qc和參考邊界直方圖qo,初始權(quán)值λc=λo=0.5,目標(biāo)在上一幀的位置0,確定目標(biāo)跟蹤窗口中心位置x0、邊界最高點x1和邊界最低中心點x2,攝像頭點與道路做垂直焦點記為0點,目標(biāo)速度恒為v。
1)計算d1、d2。
2)以0為初始位置,計算pc(0)和po(0)(根據(jù)式(1)和式(3))。
3)計算D(0)(根據(jù)式(4)、(5)目標(biāo)更新位置1(根據(jù)式(7))。
4)計算pc(1), po(1)和D(1)。
5)若0.8D(0) 6)若‖1-0‖<ε(ε一般取10-5),則停止;否則0←1返回步驟2)。
7)更新權(quán)值λc和λo(根據(jù)式(8)、(9))。
8)計算d1′和d2′。
9)更新a、b、s(根據(jù)式(12)),返回步驟1)依次跟蹤下去。
10)將每一幀的序號和目標(biāo)的位置信息尺寸大小保存在一個記憶隊列中,記垂直點處為m幀。
11)預(yù)測出目標(biāo)的位置和尺寸大小(根據(jù)式(14)、(15)),返回步驟1)依次跟蹤下去。
四、實驗結(jié)果與分析
為了驗證本文算法,實驗均在Intel Core i33220 3.3GHz CPU、 3.22GB內(nèi)存的電腦上采用Matlab 2012環(huán)境下進行了仿真實驗,其中實驗視頻來自實際拍攝的車輛目標(biāo)測試視頻,序列分辨率為640×480。圖5~7分別是目標(biāo)進入?yún)^(qū)域未遮擋或者部分遮擋、進入全遮擋區(qū)域、離開遮擋區(qū)域場景情況下,文獻[13]、文獻[15]和本文算法實驗對比結(jié)果,從圖中可以看出,本文算法定位更精確。表1是3種算法的成功跟蹤率和每幀平均耗時的實驗結(jié)果,驗證算法的實時性。其中成功跟蹤率=全遮擋序列成功跟蹤的幀數(shù)/全遮擋序列總幀數(shù),當(dāng)目標(biāo)預(yù)測的位置與實際的目標(biāo)位置差距小于一個車身長度則認為跟蹤成功(約120個像素),否則跟蹤失敗。
根據(jù)圖5可以看出文獻[13]、文獻[15]和本文的算法都可以在未遮擋區(qū)域跟蹤車輛目標(biāo)。文獻[13]采用背景差分法檢測目標(biāo)和矩形核窗函數(shù)跟蹤目標(biāo);文獻[15]采用HSV顏色特征檢測目標(biāo)和矩形核窗函數(shù)跟蹤目標(biāo);本文采用融合顏色特征和輪廓特征精確定位目標(biāo)和沙包核窗函數(shù)。在目標(biāo)的顏色和背景的顏色相似度不高的場景下,顏色特征和背景差分法都能很好地檢測目標(biāo),但矩形核窗函數(shù)在包含目標(biāo)特征的同時包含了更多的背景特征,使得計算復(fù)雜度高,計算時間長。而本文提出的沙包核窗函數(shù)在包含了目標(biāo)特征的同時減少了背景特征的影響,計算復(fù)雜度低,實時性更好。
從圖6和表1可以看出3種算法大體都能對全遮擋目標(biāo)實現(xiàn)跟蹤。因為進入全遮擋區(qū)域,文獻[13]、[15]利用Kalman算法對遮擋目標(biāo)進行運動位置預(yù)測和估計可實現(xiàn)較為魯棒的跟蹤,剛開始的誤差小,但是預(yù)測的結(jié)果會影響下一幀的目標(biāo)位置和尺寸的大小,隨著跟蹤的推進誤差逐漸增大,后遮擋區(qū)域目標(biāo)位置的預(yù)測和估計就容易失敗。而本文算法利用位置鏡像原理,根據(jù)目標(biāo)運動時間確定位置和尺寸大小,與前后幀的位置和尺寸大小無關(guān),僅與目標(biāo)運動的時間相關(guān),故誤差不會累積,所以誤差小。
通過表1可以看出本文算法比文獻 [13]和文獻[15]算法跟蹤成功率分別提高了1.6%、11%;同時每幀平均耗時24ms,滿足實時性要求。
根據(jù)圖7可以看出,文獻[13]、[15]和本文算法都可以在離開遮擋區(qū)域時跟蹤車輛目標(biāo)。當(dāng)目標(biāo)離開遮擋區(qū)域時,目標(biāo)顏色和背景的顏色區(qū)分度很大,根據(jù)顏色特征和背景差分法以及本文算法融合顏色特征和輪廓特征都可以準(zhǔn)確地重新定位目標(biāo),依次跟蹤下去。
文獻[13]、[15]提出的算法利用顏色特征和背景差分法定位目標(biāo),結(jié)合Mean Shift算法在沒有遮擋或者部分遮擋的情況下能準(zhǔn)確地跟蹤目標(biāo);而在全遮擋的情況下,利用Kalman算法預(yù)測目標(biāo)的位置,隨著跟蹤的推進會產(chǎn)生誤差累積,導(dǎo)致跟蹤成功率下降。本文算法在沒有遮擋或者部分遮擋的情況下,利用顏色特征和輪廓特征可以精確定位目標(biāo);在全遮擋的情況下利用鏡像原理可以精確地預(yù)測目標(biāo)的位置和尺寸大小,提高了跟蹤效果,滿足實時性要求。
五、結(jié)語
本文提出一種基于鏡像Mean Shift的遮擋目標(biāo)跟蹤算法,利用先驗訓(xùn)練分類器和鏡像原理較好地解決了目標(biāo)在完全遮擋場景下的目標(biāo)跟蹤問題。但是,本文算法是基于目標(biāo)的運動速度是恒定的前提,而實際中跟蹤的目標(biāo)速度是多變的,如何準(zhǔn)確跟蹤速度多變的目標(biāo)是下一步工作的研究重點。
參考文獻:
[1] CAO Y, JIN S, FAN Y. Research on detection and tracking system of near space vehicle based on STK/Matlab[J].Journal of System Simulation, 2014,26(5):1058-1063.(曹運合,靳松陽,樊友友.基于STK/Matlab的臨近空間飛行器檢測跟蹤系統(tǒng)研究[J]. 系統(tǒng)仿真學(xué)報,2014,26(5):1058-1063.)
[2] SANG H, WU D, WANG H. Face tracking and recognition system for video surveillance[J]. Computer Engineering and Applications, 2014, 50(12): 175-179.(桑海峰,吳丹陽,王會.視頻監(jiān)控下的人臉跟蹤與識別系統(tǒng)[J].計算機工程與應(yīng)用,2014,50(12):175-179.)
[3] LI W, CHENG L. New progress of fabric defect detection based on computer vision and image processing[J].Journal of Textile Research,2014,35(3):158-164.(李文羽,程隆棣.基于機器視覺和圖像處理的織物疵點檢測研究新進展[J]. 紡織學(xué)報,2014,35(3):158-164.)
[4] XUE C, ZHU M, LIU C. Review of tracking algorithms under occlusion[J].Chinese Journal of Optics and Applied Optics,2009, 2(5):388-394.(薛陳,朱明,劉春香.遮擋情況下目標(biāo)跟蹤算法綜述[J]. 中國光學(xué)與應(yīng)用光學(xué),2009,2(5):388-394.)
[5] THOMPSON W B, MUTCH K M, BERZINS V A. Dynamic occlusion analysis in optical flow fields[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,1985, 7(4):374-383.
[6] MAVER J, BAJCSY R. Occlusions as a guide for planning the next view[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1993, 15(5):417-433.
[7] ZITNICK C L, KANADE T. A cooperative algorithm for stereo matching and occlusion detection[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2000, 22(7): 675-684.
[8] PANG C C C, LAM W W L, YUNG N H C. A novel method for resolving vehicle occlusion in a monocular trafficimage sequence[J]. IEEE Transactions on Intelligent Transportation Systems,2004,5(3):129-141.
[9] GENTILE C,CAMPS O,SZNAIER M. Segmentation for robust tracking in the presence of severe occlusion[C]// Proceedings of the 2001 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE,2004,132: 483-489.
[10] ZHANG Y, XU H. Fragment tracking under occluded target[J].Journal of Image and Graphics, 2014, 19(1):92-100.(張彥超,許宏麗.遮擋目標(biāo)的分片跟蹤處理[J]. 中國圖象圖形學(xué)報,2014,19(1):92-100.)
[11] ZHANG W, WU Q, YANG X, et al. Multilevel framework to detect and handle vehicle occlusion[J]. IEEE Transactions on Intelligent Transportation Systems,2008, 9(1):161-174.
[12] LI P, LUO W, LI G, et al. Using credit coefficients to solve occlusion problems in the stereo vision[J].OpticsElectronic Engineering, 2008, 35(12): 89-95. (李沛,羅武勝,李冠章,等.基于信用度分類遮擋問題解決方法[J].光電工程,2008,35(12):89-95.)
[13] YAN J, WU M. Online Boosting based target tracking under occlusion[J].Optics and Precision Engineering,2012, 20(2): 439-446.(顏佳,吳敏淵.遮擋環(huán)境下采用在線Boosting的目標(biāo)跟蹤[J]. 光學(xué)精密工程,2012,20(2):439-446.)
[14] GONG W, WANG X, LI Z. Antiocclusion detection and tracking algorithm for multiple for infrared targets[J]. Chinese Journal of Scientific Instrument,2014, 35(3):535-542.(龔衛(wèi)國,王旭,李正浩.一種抗遮擋的紅外多目標(biāo)實時檢測跟蹤算法[J].儀器儀表學(xué)報,2014,35(3):535-542.)
[15] ZHOU L, WANG Z, WANG Y. Multiview cooperative tracking of multiple mobile object based on dynamic occlusion threshold[J].Journal of Research and Development,2014, 51(4):813-823.(周良毅,王智,王營冠.基于動態(tài)遮擋閾值的多視角多目標(biāo)協(xié)作追蹤[J].計算機研究與發(fā)展,2014,51(4):813-823.)
[16] DI N, ZHU M. An algorithm for realtime tracking target in complex environment[J].Journal of Image and Graphics,2008, 13(9):1758-1765.(邸男,朱明.一種復(fù)雜背景下的實時目標(biāo)跟蹤算法[J].中國圖象圖形學(xué)報,2008,13(9):1758-1765.)
【基于鏡像Mean Shift的遮擋目標(biāo)跟蹤算法】相關(guān)文章:
跟蹤審計中存在問題及對策05-27
數(shù)據(jù)關(guān)聯(lián)算法綜述及其性能評估05-05
試析基于勝任素質(zhì)的薪酬模式構(gòu)建01-03
基于戰(zhàn)略治理的企業(yè)環(huán)境風(fēng)險研究08-28
淺論建設(shè)項目全過程跟蹤審計05-03
基于軟交換的固網(wǎng)智能化05-11
基于BP網(wǎng)遙感影像分類研究與應(yīng)用08-10
基于minigui的網(wǎng)真機界面的實現(xiàn)08-05