亚洲综合日韩精品欧美综合区,日韩国产在线一区,久久久精品一二三区,午夜精品久久久久久中宇69,国产做爰一区二区三区视频,aa天堂,三级在线视频

一種單目標跟蹤方法及其實現(xiàn)裝置與流程

文檔序號:43626976發(fā)布日期:2025-11-01 11:25閱讀:14來源:國知局
一種單目標跟蹤方法及其實現(xiàn)裝置

技術領域

本發(fā)明涉及給定目標起始位置的跟蹤方法及其實現(xiàn)裝置,尤其是一種單目標跟蹤方法及其實現(xiàn)裝置。



背景技術:

基于運動目標特征進行跟蹤技術的研究,是近幾年計算機視覺領域研究的熱點。雖然指紋、掌紋和靜脈等生物特征在安全領域已經開展了廣泛的研究并有了初步應用,但這些生物特征屬于接觸式識別,大大限制了其應用范圍。相對而言,步態(tài)和人臉識別這種“非接觸式”識別技術,將人體運動與生物特征進行巧妙結合進行識別研究,目前已經成為了智能場景視頻監(jiān)控中一門重要領域。尤其是步態(tài)識別,需要在行人行走運動時采集到運動人體的特征進行身份識別,前期的運動人體檢測與跟蹤工作的準確性、實時性是整體識別性能的前提。這對視頻監(jiān)控提出了很大挑戰(zhàn),基于系統(tǒng)場景安全性能的要求,傳統(tǒng)的依靠人工操作的視頻監(jiān)控由于具有以下缺點,已經不能適應實際場景安全監(jiān)控應用的需要。在實際的復雜背景下如何實現(xiàn)目標的跟蹤不僅是智能視頻監(jiān)控系統(tǒng)的關鍵,在智能交通或者人機交互應用中也有著很重要的作用,因此目標跟蹤算法得到了很廣泛的發(fā)展。但是,大部分行人跟蹤算法的成功與否,都要取決于背景的復雜度以及行人目標與背景的相似性,只有目標與背景在顏色上區(qū)別較大的情況下才能得到良好效果。為了解決復雜場景中行人跟蹤的問題,需要我們設計出越來越多的魯棒算法,使其足以解決光照變化、噪聲影響、障礙物遮擋等種種實際應用中不可避免的問題。如何準確而快速地從視頻序列中檢測和跟蹤出運動目標非常重要,是身份識別和異常行為識別最為關鍵的技術之一,目前運動目標跟蹤的方法主要有兩種:1、統(tǒng)計學習方法;2、基于顏色特征的算法。第一種方法逐漸成為模式識別領域中的主流技術之一,它在許多經典問題上都有成功的應用,運動目標跟蹤就是一例。Adaboost算法是Freund等人提出的一種級聯(lián)跟蹤算法,它的目標是自動地從弱分類器空間中挑選出若干個弱分類器整合成一個強分類器。Vila等人提出的基于Haar型特征的Adaboost算法,是Adaboost算法在人臉檢測上的成功應用。Grabner等人提出在線Adaboost算法,將Adaboost算法應用到目標跟蹤領域,取得了較好的跟蹤效果。不同于離線Adaboost算法,在線Adaboost算法的訓練樣本是實時得到的一個或幾個數(shù)據。使用這種算法可以更好地適應運動目標特征變化等問題,但在線Adaboost算法單純依靠分類器進行跟蹤,在復雜的背景中發(fā)生大面積遮擋的情況下容易分類錯誤川,造成跟蹤丟失。

Bradski提出的Camshift跟蹤算法憑借其在實時性和魯棒性方面良好的表現(xiàn)也是一種被廣泛關注的算法。Camshift算法以Meanshift算法為核心,解決了Meanshift不能改變跟蹤窗口大小的缺點,縮小了目標搜索范圍,提高了準確性和運算效率,在背景簡單的情況下能夠取得較好的跟蹤效果。但Camshift跟蹤算法受周圍其他運動目標影響較大,容易將非目標點誤認為目標點,使目標尺寸變化并造成跟蹤失效,進而出現(xiàn)跟蹤丟失現(xiàn)象。傳統(tǒng)的Camshift目標跟蹤算法用顏色信息作為特征進行跟蹤,當目標顏色與背景或者非目標相近,也會出現(xiàn)跟蹤丟失。并且,傳統(tǒng)的Camshift目標跟蹤算法對快速運動目標容易跟蹤失敗,且無法從失敗中復原。鑒于單一的在線Adaboost算法和Camshift算法都不能取得很好的跟蹤效果,發(fā)明專利CN201210487250.3,專利名稱為“一種運動目標跟蹤方法”公開了一種基于在線Adaboost算法和Camshift算法結合的運動目標跟蹤方法,首先將在線Adaboost跟蹤算法的特征矩陣和分類器運算得到置信圖,特征的選取融合了局部方向直方圖特征與顏色特征,然后在置信圖上應用Camshift算法,使得Camshift算法應用的特征融合了紋理與顏色信息。該方法包括以下步驟:第一步,基于碼本模型的快速運動目標檢測方法準確檢測到運動目標;第二步,對在線Adaboost算法弱分類器組初始化,得到強分類器,運動目標特征的選取融合了局部方向直方圖特征與顏色特征;第三步,將在線Adaboost跟蹤算法的特征矩陣和弱分類器運算得到置信圖,在置信圖上應用Camshift跟蹤算法,根據得到的運動目標位置更新弱分類器,最后得到整段視頻序列的跟蹤結果。該方法利用傳統(tǒng)辦法解決跟蹤問題,其存在問題有兩方面,首先,提取的特征魯棒性不足,對于局部的方向直方圖和顏色特征往往對噪音較為敏感,從而導致目標表觀的魯棒性不足;其次,該方法采用的Camshift方法對光照,顏色變化的目標容易產生漂移現(xiàn)象,從而導致了跟蹤精度下降的問題,無法滿足實際監(jiān)控視頻中的苛刻環(huán)境。因此設計魯棒的特征和泛化能力強的分類器是目標跟蹤的兩大關鍵問題。

專利名稱為“基于賦權最小二乘的單目標跟蹤方法”(公開號:103093482A,公開日:2013-05-08)公開了一種基于賦權最小二乘的單目標跟蹤方法,以重構誤差的方式對目標進行跟蹤。此方法的缺點是求解重構的稀疏需要消耗一定的時間,因此跟蹤上較難實現(xiàn)實時的跟蹤。假設已知由N幀灰度圖像組成的視頻V={F0,F1,…FN},幀圖像的寬高分別為w,h。本發(fā)明想要解決的問題是:在F0幀中選定目標O0然后提出一種跟蹤方法對O0進行連續(xù)N幀跟蹤。

這種給定目標起始位置的跟蹤方法,目前采用的主要技術是通過提取目標的顏色,輪廓和紋理特征信息來表達目標的表觀,然后利用分類學習方法學習目標的表觀模型;接著通過表觀模型在下一幀圖片中檢測目標的位置,或者通過簡單的跟蹤算法,如均值漂移或光流等,在下一幀圖片中跟蹤目標出現(xiàn)的位置,此后整合跟蹤和目標檢測兩種方法的結果得到一個最可信的跟蹤位置;最后通過某種更新策略對表觀模型進行自適應的更新。



技術實現(xiàn)要素:

為解決上述問題,本發(fā)明的目的在于提供一種通過壓縮感知特征提取方法和在線核學習更新方法及裝置,克服上述跟蹤技術的不足,對目標提取魯棒性極強的壓縮感知特征,提高目標表觀的表達能力,然后才去在線核學習辦法更新表觀模型。

為實現(xiàn)上述目的,本發(fā)明的技術方案為:

一種單目標跟蹤方法,包括:

第一步,初始化參數(shù),即,在F0幀中獲取目標O0初始位置的矩形框B0=[x0,y0,w0,h0],分別表示邊框的左上角橫坐標,左上角縱坐標,邊框寬,邊框高;在寬高相同的圖像塊I上,生成L個隨機點對集其中分別表示第l個點對之第一個點的橫坐標,第一個點的縱坐標,第二點的橫坐標,第二個點的縱坐標,隨機點對的生成方式限制在水平或垂直兩種;生成稀疏隨機矩陣A,用于特征降維;

第二步,分類器初始化及其更新,進行第t=0,1,…,N-1次迭代更新,將處理第t幀圖像Ft,包括訓練集構造、特征提取和模型更新三個處理過程;

第三步,目標跟蹤,利用模型ft+1在Ft+1幀圖像進行目標跟蹤,跟蹤步驟包括:預測樣本構造,特征提取,樣本分類,選擇置信度最高的多個樣本,生成一個最終的(同時也是最佳的)目標邊界框,輸出跟蹤框,t=t+1,若t>N,則結束跟蹤;否則,返回第二步。

第一步中,行數(shù)為H,取值為50-300,(優(yōu)選為100),列數(shù)為L,已知有一個等概率函數(shù)rand,其等概率地生成{1,2,3,…,2024}中的一個元素,若rand∈{1,2,3,…16},則若rand∈{17,2,3,…,32},則否則aij=0。

第二步中,

所述訓練集構造包括如下步驟:

a)正樣本采集從目標邊界框Bt=[xt,yt,wt,ht]的鄰域Qtpos={(x,y)|xt-10<x<xt+10,yt-10<y<yt+10}]]>中隨機提取50-500個(優(yōu)選100個)正樣本圖片集獲取方法為平移和縮放,步驟如下:

i.正樣本邊界框的生成公式:

[x′,y′,w′,h′]=scale[x,y,wt,ht]+shift(1)

其中scale表示縮放率,取值范圍[0.8,1.2],shift表示正整數(shù)偏移量,取值范圍[0,20].x,y取值范圍為

ii.進行80-150次(優(yōu)選100次)如下操作:在x,y,scale,shift的取值范圍內,分別獲取隨機值;然后代入公式(1)計算得到樣本的邊界框[x′,y′,w′,h′];根據邊界框[x′,y′,w′,h′]截取圖像Ft的子圖像I;將I歸一化至寬高相同(例如32x32)的圖像I;如此進行80-150次后,生成了80-150張正類樣本圖片集合,記為

b)負樣本采集在的外圍區(qū)域,確切地Qtneg={(x,y)|0≤x,x≥xt-10,0≤y,y≥yt+10},]]>隨機獲取50-1000個(優(yōu)選200個)負類樣本集獲取方法為平移或縮放,步驟如下:

i.生成負樣本邊界框的公式:

[x′,y′,w′,h′]=scale[x,y,wt,ht]shift(2)

其中scale表示縮放率,取值范圍[0.8,1.2],shift表示正整數(shù)偏移量,取值范圍[0,20].x,y取值范圍為

ii.進行150-500次(優(yōu)選200次)如下操作:在x,y,scale,shift的取值范圍內,分別獲取隨機值;然后代入公式(2)計算得到樣本的邊界框[x′,y′,w′,h′];根據邊框[x′,y′,w′,h′]截取圖像Ft的子圖像I;將I歸一化至寬高相同(例如32x32)的圖像I;如此進行150-500次后,生成了150-500張負類樣本圖片,記為

c)合并正負類樣本,構成訓練樣本Dt;確切地,其中yi∈{-1,1}表示樣本的類別標簽,-1表示負類樣本,1表示正類樣本。

第二步中,所述特征提取為提取Dt中的所有樣本圖像的特征,提取樣本{It,yt}特征的步驟如下:

a)初始化樣本{It,yt}的特征為特征長度為CP的元素個數(shù),即L;

b)的第i∈{0,1,…,L}個分量值的計算公式如下:

其中It(p,q)表示圖像It在點(p,q)的灰度像素值;

c)利用稀疏隨機矩陣A對進行降維,維數(shù)為50-300(優(yōu)選為100),從而得到新的特征z,計算公式如下:

z=Az ̄]]>

由此構造的訓練樣本記為

第二步中,所述模型更新為利用訓練集更新分類器模型其中即更新模型參數(shù)wt∈R1×101,R表示實數(shù),步驟如下:

a)如果t=0,初始化wt∈R1×101,λ取值為0.0001;否則,執(zhí)行步驟b);

b)進行t=1,…,T次如下迭代步驟:

i.從Zt中隨機選擇k個樣本,構成子集

ii.從At中尋找滿足一定條件的樣本子集

iii.計算參數(shù)值ηt=1/(λt)。

iv.第一次更新參數(shù):

v.第二次更新參數(shù):

其中min表示元素中的最小值,||·||表示2范數(shù)。

c)輸出wt+1。

第三步中,所述利用模型ft+1在Ft+1幀圖像進行目標跟蹤的步驟如下:

1)樣本集提取。從目標邊界框Bt=[xt,yt,wt,ht]的鄰域Qt+1u={(x,y)|xt-30<x<xt+30,yt-30<y<yt+30}]]>中隨機提取150-300個(優(yōu)選200個)正樣本圖片集獲取方法為平移或縮放,步驟如下:

i.生成樣本邊界框的公式:

[x′,y′,w′,h′]=scale[x,y,wt,ht]+shift(3)

其中scale表示縮放率,取值范圍[0.8,1.2],shift表示正整數(shù)偏移量,取值范圍[0,20].x,y取值范圍為

ii.進行150-500次(優(yōu)選200次)如下操作:在x,y,scale,shift的取值范圍內,分別獲取隨機值;然后代入公式(3)計算得到樣本的邊界框[x′,y′,w′,h′];根據邊框[x′,y′,w′,h′]截取圖像Ft+1的子圖像I;將I歸一化至寬高相同(例如32x32)的圖像I;

iii.根據步驟ii,生成了150-500張(優(yōu)選200張)樣本圖片集合,記為Dt+1U={{Ii,1}i}i=1200;]]>樣本集合在圖像中的樣本邊框集合記為Dt+1U={{xi,yi,wi,hi,}i}i=1200;]]>

2)計算中每張圖片的特征,計算樣本{It,yt}特征的方法如下:

a)初始化樣本{It,yt}的特征為特征長度為CP素個數(shù),即L;

b)的第i∈{0,1…,L}個分量值的計算公式如下:

其中It(p,q)表示圖像It在點(p,q)的灰度像素值;

c)利用稀疏隨機矩陣A對進行降維,維數(shù)為50-300(優(yōu)選為100),從而得到新的特征z,計算公式如下:

z=Az ̄]]>

由此構造的訓練樣本記為

如上,構成待分類的樣本集

3)利用模型ft+1對Ut+1中的所有樣本進行分類,每個樣本zi∈Ut+1產生相應的置信度:Confi=ft+1(z^i)=wt+1z^i]]>

其中置信度記為Conft+1={conf1,conf2,…,conf200}

4)根據Conft+1,從中選擇置信度最高的多數(shù)個邊界框此數(shù)優(yōu)選為采樣樣本數(shù)的1/20,生成一個最終的目標邊界框Bt+1=[xt+1,yt+1,wt+1,ht+1];

5)t=t+1,若t>N,則結束跟蹤;否則,返回前面的第二步。

為了實現(xiàn)上述方法,本發(fā)明還提供一種單目標跟蹤方法的實現(xiàn)裝置,包括:

圖像獲取裝置,用于從視頻中獲取一幀圖像并對圖像進行灰度化處理和寬高歸一化處理;

分類器初始化及其更新裝置,用于初始化模型和在線更新模型;

目標跟蹤裝置,用于在一張新圖像上做目標搜尋,使得搜尋結果與目標盡量一致。

所述圖像獲取裝置包括隨機點對生成單元和稀疏隨機矩陣生成單元。

所述分類器初始化及其更新裝置包括樣本圖片集構造單元、特征提取單元和模型更新單元,其中,樣本圖片集構造單元用于從樣本圖片中構造正類樣本子圖像集合和負類樣本子圖像集合;特征提取單元,用于對正負樣本圖像進行壓縮感知的特征提??;模型更新單元,利用特征提取單元獲取的特征樣本集來更新分類器模型。

所述目標跟蹤裝置包括樣本圖片集構造單元、特征提取單元和目標跟蹤單元,其中,樣本圖片集構造單元用于從樣本圖片中構造正類樣本子圖像集合和負類樣本子圖像集合;特征提取單元,用于對正負樣本圖像進行壓縮感知的特征提取,目標跟蹤單元,用于對所有樣本進行分類,并從中選擇置信度最高的多個邊界框,進而聚類生成一個最佳的目標邊界框。

綜上所述,本發(fā)明提供的一種單目標跟蹤方法創(chuàng)造性的提出了特征提取方法和特征降維方法,對目標提取魯棒性極強的壓縮感知特征,提高了目標表觀的表達能力,然后通過分類器初始化及其更新的步驟,在線學習和更新目標的表觀模型,從而大大提高了目標跟蹤的精度和速度。

而且,本發(fā)明提供的實現(xiàn)裝置采用了基于二值特征的壓縮感知降維方法來表達目標的表觀,能夠有效表達目標的形變,提高抗遮擋以及光照的能力,從而能夠魯棒跟蹤目標,同時具有內存消耗低和計算量小的優(yōu)勢,達到實時跟蹤速度。因此在實際應用中具有很好的應用價值。

附圖說明

圖1是本發(fā)明的隨機生成的點對示意圖;

圖2是本發(fā)明的圖像塊點陣格子圖示例圖;

圖3是本發(fā)明的特征提取方法示意圖;

圖4是本發(fā)明的特征降維示例圖;

圖5是本發(fā)明單目標跟蹤方法流程圖;

圖6是本發(fā)明的單目標跟蹤方法的實現(xiàn)裝置結構示意圖;

圖7為本發(fā)明的樣本構造單元流程圖;

圖8為本發(fā)明的模型更新單元流程圖;

圖9為本發(fā)明的目標跟蹤單元流程圖;

圖10和圖11均為本發(fā)明的跟蹤效果圖。

具體實施方式

為了使本發(fā)明的目的、技術方案及優(yōu)點更加清楚明白,以下結合附圖及實施例,對本發(fā)明進行進一步詳細說明。應當理解,此處所描述的具體實施例僅僅用以解釋本發(fā)明,并不用于限定本發(fā)明。

本發(fā)明提供一種單目標跟蹤方法,如圖5所示,假設已知由N幀灰度行人圖像組成的視頻V={F0,F1,…FN},幀圖像的寬高分別為w,h,包括如下步驟:

第一步、獲取參數(shù)

如圖5中的①所示,具體初始化步驟如下:

1)通過手動,在F0幀中獲取目標O0初始位置的矩形框B0=[x0,y0,w0,h0],其中x0,y0,w0,h0分別表示邊框的左上角橫坐標,左上角縱坐標,邊框寬,邊框高。

2)在寬高相同(例如32x32)的圖像塊I上,生成L個隨機點對集其中分別表示第l個點對之第一個點的橫坐標,第一個點的縱坐標,第二點的橫坐標,第二個點的縱坐標。隨機點對的生成方式限制在水平或垂直兩種。如圖1所示,為兩個隨機點對的示意圖。具體步驟如下:

a)在圖像I上生成格子點集如圖2所示。

b)根據S,可得到點對集合對每個點對的兩個縱坐標點分別附加一個隨機數(shù),即第四個縱坐標p41=min(h,p21(1+rand))]]>和第二個縱坐標p2l=min{0,p2l(1-rand)},]]>其中rand表示[0,1]區(qū)間的隨機數(shù)。由此生成了關于垂直方向的點對集合CPv={[p1l,p3l,p1l,p4l]}l=11024]]>

c)根據S,可得到點對集合對每個點對的兩個橫坐標點分別附加一個隨機數(shù),即第三個橫坐標p3l=min(w,p1l(1+rand))]]>和第一個橫坐標p1l=max(0,p1l(1-rand)),]]>其中rand表示[0,1]區(qū)間的隨機數(shù)。由此生成關于水平方向的點對集合CPh={[p1l,p2l,p3l,p2l]}l=11024.]]>

d)合并關于垂直和水平方向的點對集合注意這里去掉了重復的點對,集合CP的元素個數(shù)為L。

3)生成稀疏隨機矩陣行列分別為H,L。其中行數(shù)的取值為50-300,最佳值為100,已知有一個等概率函數(shù)rand,其等概率地生成{1,2,3,…,2024}中的一個元素。若rand∈{1,2,3,…,16},則若rand∈{17,2,3,…,32},則否則aij=0。稀疏隨機矩陣A用于特征降維,減少計算量和抗噪音能力。

第二步、分類器初始化及其更新

如圖5中的③、④和⑤步驟所示,假設進行第t=0,1,…,N-1次迭代更新,將處理第t幀圖像Ft,迭代過程如下所示:

1)訓練集構造

a)正樣本采集從目標邊界框Bt=[xt,yt,wt,ht]的鄰域Qtpos={(x,y)|xt-10<x<xt+10,yt-10<y<yt+10}]]>中隨機提取50-500個,最佳為100個正樣本圖片集獲取方法為平移和縮放。如圖7流程圖所示,循環(huán)次數(shù)T設定為100.步驟如下:

i.正樣本邊界框的生成公式:

[x',y',w',h']=scale[x,y,wt,ht]+shift(1)

其中scale表示縮放率,取值范圍[0.8,1.2],shift表示正整數(shù)偏移量,取值范圍[0,20].x,y取值范圍為

ii.本實施例中,以進行100次如下操作為例:在x,y,scale,shift的取值范圍內,分別獲取隨機值;然后代入公式(1)計算得到樣本的邊界框[x',y',w',h'];根據邊框[x',y',w',h']截取圖像Ft的子圖像Ii;將Ii歸一化至寬高為32x32的圖像Ii。如此進行100次后,生成了100張正類樣本圖片集合,記為Dtpos={{Ii,1}i}i=1100.]]>

b)負樣本采集在的外圍區(qū)域,確切地Qtneg={(x,y)|0≤x,x≥xt-10,0≤y,y≥yt+10},]]>隨機獲取50-1000個(最佳為100個)負類樣本集獲取方法為平移縮放。如圖7流程圖所示,循環(huán)次數(shù)T設定為150-500(最佳為200)。步驟如下:

i.生成負樣本邊界框的公式:

[x',y',w',h']=scale[x,y,wt,ht]+shift(2)

其中scale表示縮放率,取值范圍[0.8,1.2],shift表示正整數(shù)偏移量,取值范圍[0,20].x,y取值范圍為

ii.本實施例中,以進行200次如下操作為例:在x,y,scale,shift的取值范圍內,分別獲取隨機值;然后代入公式(2)計算得到樣本的邊界框[x',y',w',h'];根據邊框[x',y',w',h']截取圖像Ft的子圖像I;將It歸一化至寬高相同(例如32x32)的圖像I。如此進行200次后,生成了200張負類樣本圖片,記為Dtneg={{Ii,-1}i}i=1200.]]>

c)合并正負類樣本,構成訓練樣本Dt。確切地,其中yi∈{-1,1}表示樣本的類別標簽,-1表示負類樣本,1表示正類樣本。

2)特征提取,如圖3所示。提取Dt中的所有樣本圖像的特征,提取樣本{Ii,yi}特征的步驟如下:

a)初始化樣本{Ii,yi}的特征為特征長度為CP的元素個數(shù),即L。

b)的第j∈{0,1,…,L}個分量值的計算公式如下:

其中Ii(p,q)表示圖像Ii在點(p,q)的灰度像素值。

c)如圖4所示,利用稀疏隨機矩陣A對進行降維,維數(shù)為50-300(最佳為100),從而得到新的特征z,計算公式如下:

z=Az ̄]]>

由此構造的訓練樣本記為

分類器初始化或更新,如圖8所示,利用訓練集Zt更新分類器模型其中即更新模型參數(shù)wt∈R1×101,R表示實數(shù)。步驟如下:

d)如果t=0,初始化wt∈R1×101,λ取值為0.0001;否則,執(zhí)行步驟b);

e)進行t=1,…,T次如下迭代步驟:

i.從Zt中隨機選擇k個樣本,構成子集

ii.從At中尋找滿足一定條件的樣本子集

iii.計算參數(shù)值ηt=1(λt)。

iv.第一次更新參數(shù):

v.第二次更新參數(shù)

其中min表示元素中的最小值,||·||表示2范數(shù)。

f)輸出wt+1,即模型ft+1。

第三步、跟蹤目標

如圖5中的⑥-⑨步驟,具體地如圖9流程圖所示。利用模型ft+1在Ft+1幀圖像進行目標跟蹤,跟蹤步驟如下:

1)樣本集提取。從目標邊界框Bt=[xt,yt,wt,ht]的鄰域Qt+1u={(x,y)|xt-30<x<xt+30,yt-30<y<yt+30}]]>中隨機提取50-500個(最佳為200個)正樣本圖片集獲取方法為平移和縮放等。步驟如下:

i.生成樣本邊界框的公式:

[x',y',w',h']=scale[x,y,wt,ht]+shift(3)

其中scale表示縮放率,取值范圍[0.8,1.2],shift表示正整數(shù)偏移量,取值范圍[0,20].x,y取值范圍為

ii.進行150-500次如下操作,本實施例中以進行200次如下操作為例:在x,y,scale,shift的取值范圍內,分別獲取隨機值;然后代入公式(3)計算得到樣本的邊界框[x',y',w',h'];根據邊框[x',y',w',h']截取圖像Ft+1的子圖像I;將I歸一化至寬高相同(例如32x32)的圖像I。

iii.根據步驟ii,生成了200張樣本圖片集合,記為樣本集合在圖像中的樣本邊框集合記為

2)計算中每張圖片的特征。如圖3所示中的特征提取方法相同。構成待分類的樣本集

3)利用模型ft+1對Ut+1中的所有樣本進行分類。每個樣本zi∈Ut+1產生相應的置信度:

Confi=ft+1(z^i)=wt+1z^i]]>

其中置信度記為Conft+1={conf1,conf2,…,conf200}

4)根據Conft+1,從中選擇置信度最高的10個邊界框利用加權Meanshift聚類方法(DalalN.Findingpeopleinimagesandvideos[D].InstitutNationalPolytechniquedeGrenoble-INPG,2006.)生成一個最終的目標邊界框Bt+1=[xt+1,yt+1,wt+1,ht+1];

5)t=t+1,若t>N,則結束跟蹤;否則,返回第二步的分類器初始化及其更新。

如圖10所示,行人在不同視頻幀下的跟蹤效果,畫面中行人具有換衣服,轉身,形變等特點,本專利提出的方法能有效的解決這些問題。如圖11所示,行人在不同視頻幀下的跟蹤效果,行人具有模糊,光照變化,過于小,畫面抖動,跟蹤框背景較多等特點,本專利提出的方法能有效的解決以上問題。本專利具有極強的跟蹤能力,具有抗光照變化、目標形變、表觀變化和受背景影響低等特點。

綜上所述,本發(fā)明提供的一種單目標跟蹤方法創(chuàng)造性的提出了特征提取方法和特征降維方法,對目標提取魯棒性極強的壓縮感知特征,提高了目標表觀的表達能力,然后通過分類器初始化及其更新的步驟,在線學習和更新目標的表觀模型,從而大大提高了目標跟蹤的精度和速度。

針對以上提出的目標跟蹤方法,本發(fā)明還提供一種該方法的實現(xiàn)裝置,如圖6所示。圖像獲取裝置,用于從視頻中獲取一幀圖像并對圖像進行灰度化處理和寬高歸一化處理;

分類器初始化及其更新裝置,用于初始化模型和在線更新模型;

目標跟蹤裝置,用于在一張新圖像上做目標搜尋,使得搜尋結果與目標盡量一致。所述圖像獲取裝置包括隨機點對生成單元和稀疏隨機矩陣生成單元。

所述分類器初始化及其更新裝置包括樣本圖片集構造單元、特征提取單元和模型更新單元,其中,樣本圖片集構造單元用于從樣本圖片中構造正類樣本子圖像集合和負類樣本子圖像集合;特征提取單元,用于對正負樣本圖像進行壓縮感知的特征提取;模型更新單元,利用特征提取單元獲取的特征樣本集來更新分類器模型;

所述目標跟蹤裝置包括樣本圖片集構造單元、特征提取單元和目標跟蹤單元,其中,樣本圖片集構造單元用于從樣本圖片中構造正類樣本子圖像集合和負類樣本子圖像集合;特征提取單元,用于對正負樣本圖像進行壓縮感知的特征提取,目標跟蹤單元,用于對所有樣本進行分類,并從中選擇置信度最高的多個邊界框,進而聚類生成一個最佳的目標邊界框。

下面進一步描述本發(fā)明一種單目標跟蹤方法的實現(xiàn)裝置各個單元的工作流程,

如圖6所示,所述圖像獲取裝置首先選定第i幀圖像,獲取目標O0初始位置的矩形框B0=[x0,y0,w0,h0],分別表示邊框的左上角橫坐標,左上角縱坐標,邊框寬,邊框高;

在寬高為32x32的圖像塊I上,生成L個隨機點對集其中分別表示第l個點對之第一個點的橫坐標,第一個點的縱坐標,第二點的橫坐標,第二個點的縱坐標,隨機點對的生成方式限制在水平或垂直兩種,具體如下:

在圖像I上生成格子點集S={[p1l,p2l]}l=11024,p1l,p2l∈{0,1,2,···31},]]>

垂直點對生成,根據S,可得到點對集合對每個點對的兩個縱坐標點分別附加一個隨機數(shù),即第四個縱坐標p4l=min(h,p2l(1+rand))]]>和第二個縱坐標p21=min{0,p2l(1-rand)},]]>其中rand表示[0,1]區(qū)間的隨機數(shù)。由此生成了關于垂直方向的點對集合

水平點對生成,根據S,可得到點對集合對每個點對的兩個橫坐標點分別附加一個隨機數(shù),即第三個橫坐標p31=min(w,p1l(1+rand))]]>和第一個橫坐標p1l=max(0,p1l(1-rand)),]]>其中rand表示[0,1]區(qū)間的隨機數(shù)。由此生成關于水平方向的點對集合

合并關于垂直和水平方向的點對集合去掉了重復的點對,集合CP的元素個數(shù)為L;

生成稀疏隨機矩陣A=[aij]100×L,行列分別為100和L,已知有一個等概率函數(shù)rand,其等概率地生成{1,2,3,…,2024}中的一個元素,若rand∈{1,2,3,…,16},則若rand∈{17,2,3,…,32},則否則aij=0。

分類器初始化及其更新裝置,如圖6中的②-④所示,包括樣本圖片集合構造的單元,特征提取單元和模型更新單元。其中,所述正負樣本圖片集合構造單元:主要用于從樣本圖片中構造正類樣本子圖像集合和負類樣本子圖像集合。所述特征提取單元模塊:用于對正負樣本圖像進行壓縮感知的特征提取。所述模型更新單元:用于利用特征提取單元獲取的特征樣本集來更新分類器模型。

假設進行第t=0,1,…,N-1次迭代更新,將處理第t幀圖像Ft,迭代過程如下:

1)訓練集構造

a)正樣本采集從目標邊界框Bt=[xt,yt,wt,ht]的鄰域Qtpos={(x,y)|xt-10<x<xt+10,yt-10<y<yt+10}]]>中隨機提取100個正樣本圖片集獲取方法為平移和縮放。如圖7流程圖所示,循環(huán)次數(shù)T設定為100.

i.正樣本邊界框的生成公式:

[x',y',w',h']=scale[x,y,wt,ht]+shift(1)

其中scale表示縮放率,取值范圍[0.8,1.2],shift表示正整數(shù)偏移量,取值范圍[0,20].x,y取值范圍為

ii.進行80-150如下操作,本實施例中以100次如下操作為例:在x,y,scale,shift的取值范圍內,分別獲取隨機值;然后代入公式(1)計算得到樣本的邊界框[x',y',w',h'];根據邊框[x',y',w',h']截取圖像Ft的子圖像Ii;將Ii歸一化至寬高為32x32的圖像Ii。如此進行100次后,生成了100張正類樣本圖片集合,記為Dtpos={{Ii,1}i}i=1100.]]>

b)負樣本采集在的外圍區(qū)域,確切地,Qtneg={(x,y)|0≤x,x≥xt-10,0≤y,y≥yt+10},]]>隨機獲取100個負類樣本集獲取方法為平移縮放。如圖7流程圖所示,循環(huán)次數(shù)T設定為200.步驟如下:

i.生成負樣本邊界框的公式:

[x',y',w',h']=scale[x,y,wt,ht]+shift(2)

其中scale表示縮放率,取值范圍[0.8,1.2],shift表示正整數(shù)偏移量,取值范圍[0,20].x,y取值范圍為

ii.進行150-500次如下操作,本實施例中以進行200次如下操作:在x,y,scale,shift的取值范圍內,分別獲取隨機值;然后代入公式(2)計算得到樣本的邊界框[x',y',w',h'];根據邊框[x',y',w',h']截取圖像Ft的子圖像I;將It歸一化至寬高為32x32的圖像I。如此進行200次后,生成了200張負類樣本圖片,記為

c)合并正負類樣本,構成訓練樣本Dt。確切地,其中yi∈{-1,1}表示樣本的類別標簽,-1表示負類樣本,1表示正類樣本。

2)特征提取;提取Dt中的所有樣本圖像的特征,提取樣本{Ii,yi}特征的步驟如下:

a)初始化樣本{Ii,yi}的特征為特征長度為CP的元素個數(shù),即L。

b)的第j∈{0,1,…,L}個分量值的計算公式如下:

其中Ii(p,q)表示圖像Ii在點(p,q)的灰度像素值。

c)如圖4所示,利用稀疏隨機矩陣A對進行降維,維數(shù)為50-300,本實施例中維數(shù)優(yōu)選100,從而得到新的特征z,計算公式如下:

z=Az ̄]]>

由此構造的訓練樣本記為

3)模型更新單元,利用訓練集Zt更新分類器模型其中即更新模型參數(shù)wt∈R1×101,R表示實數(shù)。步驟如下:

如果t=0,初始化wt∈R1×101,λ取值為0.0001;否則,執(zhí)行步驟b);

進行t=1,…,T次如下迭代步驟:

從Zt中隨機選擇k個樣本,構成子集

從At中尋找滿足一定條件的樣本子集

計算參數(shù)值ηt=1(λt)。

第一次更新參數(shù):

其中min表示元素中的最小值,||·||表示2范數(shù)。

輸出wt+1,即模型ft+1。

該分類器初始化及其更新裝置主要提供了對模型的在線更新功能,實現(xiàn)了目標跟蹤過程中,隨著目標形狀,光照和大小的變化,不斷學習目標的表觀,以提高跟蹤的魯棒性。

目標跟蹤裝置,用于在一張新圖像上做目標搜尋,使得搜尋結果與目標盡量一致,利用模型分類器對正負樣本圖像特征集合構造模塊獲得的特征樣本集合進行分類,并獲取最佳的目標邊框位置。所述目標跟蹤裝置包括樣本圖片集構造單元,特征提取單元和目標跟蹤單元。如圖6中的⑤-⑦所示,其中,樣本圖片集構造單元、特征提取單元與分類器初始化及其更新裝置中的樣本圖片集構造單元和特征提取單元的方法和流程相同。其工作流程如下:

1)樣本集提取。從目標邊界框Bt=[xt,yt,wt,ht]的鄰域Qt+1u={(x,y)|xt-30<x<xt+30,yt-30<y<yt+30}]]>中隨機提取200個正樣本圖片集獲取方法為平移和縮放等。步驟如下:

i.生成樣本邊界框的公式:

[x',y',w',h']=scale[x,y,wt,ht]+shift(3)

其中scale表示縮放率,取值范圍[0.8,1.2],shift表示正整數(shù)偏移量,取值范圍[0,20].x,y取值范圍為

ii.以進行200次如下操作為例:在x,y,scale,shift的取值范圍內,分別獲取隨機值;然后代入公式(3)計算得到樣本的邊界框[x',y',w',h'];根據邊框[x',y',w',h']截取圖像Ft+1的子圖像I;將I歸一化至寬高為32x32的圖像I。

iii.根據步驟ii,生成了200張樣本圖片集合,記為樣本集合在圖像中的樣本邊框集合記為

2)計算中每張圖片的特征。如圖3所示中的特征提取方法相同。構成待分類的樣本集

3)利用模型ft+1對Ut+1中的所有樣本進行分類。每個樣本zi∈Ut+1產生相應的置信度:

Confi=ft+1(z^i)=wt+1z^i]]>

其中置信度記為Conft+1={conf1,conf2,…,conf200}

4)根據Conft+1,從中選擇置信度最高的10個邊界框利用加權Meanshift方法生成一個最終的目標邊界框Bt+1=[xt+1,yt+1,wt+1,ht+1];

5)t=t+1,若t>N,則結束跟蹤;否則,返回分類器初始化及其更新裝置中的模型更新單元。

綜上,本發(fā)明提供的實現(xiàn)裝置采用了基于二值特征的壓縮感知降維方法來表達目標的表觀,能夠有效表達目標的形變,提高抗遮擋以及光照的能力,從而能夠魯棒跟蹤目標,同時具有內存消耗低和計算量小的優(yōu)勢,達到實時跟蹤速度。因此在實際應用中具有很好的應用價值。

以上所述僅為本發(fā)明的較佳實施例而已,并不用以限制本發(fā)明,凡在本發(fā)明的精神和原則之內所作的任何修改、等同替換和改進等,均應包含在本發(fā)明的保護范圍之內。

當前第1頁1 2 
當前第1頁1 2 
網友詢問留言 留言:0條
  • 還沒有人留言評論。精彩留言會獲得點贊!
1