The invention belongs to the field of artificial intelligence technology, and discloses a behavior recognition method based on the local joint point track space-time volume in the skeleton sequence, which extracts the local joint point track space-time volume from the input RGB video data and skeleton joint point data, extracts image features by using the pre training model based on the RGB video data set, and extracts each different characteristic of each joint point in the training set The features of N joint points are concatenated into feature vectors, and SVM classifier is used for behavior classification and recognition. In the invention, manual features and deep learning features are fused, and local features are extracted by deep learning method, and the fusion of multiple features can achieve a stable and accurate recognition rate; in the invention, 2D human skeleton and RGB video sequence estimated by attitude estimation algorithm are used to extract features, with low cost and high precision, so it is of great significance to apply them to real scenes.
【技術實現步驟摘要】
骨架序列中基于局部關節點軌跡時空卷的行為識別方法
本專利技術屬于人工智能
,尤其涉及一種骨架序列中基于局部關節點軌跡時空卷的行為識別方法。具體為一種RGB和2D骨架序列中基于局部關節點軌跡時空卷的行為識別方法。
技術介紹
目前,業內常用的現有技術是這樣的:隨著人工智能技術的發展,以及政府和產業界的投入增多,人工智能產業蓬勃發展,成為當今科學研究的熱點。人工智能應用的普及對社會的影響日益凸顯,在智能交通、智能家居、智能醫療等民生領域都有著積極的影響。人工智能作為新一輪科技革命的核心力量,推動著國家的進步。行為識別作為人工智能領域的一個分支,同樣起著重要的作用。由于監控設備的普及,產生了大量的視頻數據,依賴人工分析海量數據變得尤為困難,行為識別技術的出現,可以快速以及準確的分析視頻中人物動作以及突發事件,并快速反饋。因此,很大程度的節省了人力資源,避免緊急情況發生和事態惡化。行為識別關鍵技術在于如何準確定位目標區域,如何獲取魯棒的行為特征以及準確分類。目前已經提出許多方法,這些方法可以分為基于RGB視頻數據,基于深度數據方法,基于骨架數據以及基于多種數據融合的方法。基于骨架數據的方法可以實現目標的快速定位,免去目標定位的步驟,大大提高了算法的效率。并且,隨著深度傳感器的普及以及一些實時姿態估計算法的出現,基于骨架數據的方法引起了廣泛的關注。首先,在許多基于骨架的行為識別方法中,使用深度信息解決該問題是主流方法。這種方法將人體骨架關節點置于三維空間中,因此骨架具有水平,垂直和深度三個方向的坐標 ...
【技術保護點】
1.一種RGB和2D骨架序列中基于局部關節點軌跡時空卷的行為識別方法,其特征在于,所述RGB和2D骨架序列中基于局部關節點軌跡時空卷的行為識別方法包括以下步驟:/n步驟一,自輸入的RGB視頻數據和2D的骨架序列中提取局部關節點軌跡時空卷;/n步驟二,利用基于RGB視頻數據集的預訓練模型提取圖像梯度直方圖特征,光流直方圖特征,運動邊界直方圖特征,以及3D卷積神經網絡特征;/n步驟三,對訓練集中每個關節點的每一種不同的特征分別構建碼本并且分別進行編碼,將n個關節點的四種特征串聯為骨架關節點的特征向量;關節點特征的維度是2*C*(L
【技術特征摘要】
1.一種RGB和2D骨架序列中基于局部關節點軌跡時空卷的行為識別方法,其特征在于,所述RGB和2D骨架序列中基于局部關節點軌跡時空卷的行為識別方法包括以下步驟:
步驟一,自輸入的RGB視頻數據和2D的骨架序列中提取局部關節點軌跡時空卷;
步驟二,利用基于RGB視頻數據集的預訓練模型提取圖像梯度直方圖特征,光流直方圖特征,運動邊界直方圖特征,以及3D卷積神經網絡特征;
步驟三,對訓練集中每個關節點的每一種不同的特征分別構建碼本并且分別進行編碼,將n個關節點的四種特征串聯為骨架關節點的特征向量;關節點特征的維度是2*C*(Lhog+Lhof+Lmbh+Lc3d)*n,其中,n是骨架關節點的數量;
步驟四,訓練線性SVM分類器,進行行為分類與識別。
2.如權利要求1所述RGB和2D骨架序列中基于局部關節點軌跡時空卷的行為識別方法,其特征在于,步驟一中,所述自輸入的RGB視頻數據和2D骨架序列中提取局部關節點軌跡時空卷具體包括:
(1)將輸入的RGB視頻序列以及2D人體骨架序列數據表示為幀-關節點數據對:D={<f1,s1>,<f2,s2>,…,<fT,sT>};
其中,ft是視頻中的第t幀,在第t幀的人體骨架表示為st,T代表視頻的總幀數;將人體骨架視為關節點的集合其中,是骨架的第i個關節點,n是關節點的總數量,n=20;關節點位置可以表示為
(2)將視頻中每個關節點Ji的軌跡定義為關節點位置在時間上變化的序列,在視頻的每一幀中,提取以關節點為中心的局部圖像區域;對于任一關節點i,都有一個局部圖像的時間序列,其中是第i個關節點在視頻的第t幀周圍的圖像區域,大小為64*64;
(3)圖像時間序列Vi拆分為幾個相同長度的短片段,稱為LJTV;
(4)輸入數據轉換為n個LJTV的集合,n個關節點對應于這n個集合,則輸入數據定義為:
D={V1,V2,…,Vi,…,Vn}
Vi={vi1,vi2,…,vi1,…,vim}
其中,m是每個關節點的LJTV數量,代表一個LJTV,k是LJTV的長度,m=T/k,將k設置為15;在同一視頻中,n個關節點的LJTV數量都是相同的。
3.如權利要求1所述RGB和2D骨架序列中基于局部關節點軌跡時空卷的行為識別方法,其特征在于,步驟二中,所述特征提取具體包括:
將LJTV拆分為nt*nx*ny個單元體,nt是LJTV在...
【專利技術屬性】
技術研發人員:張洪博,張翼翔,杜吉祥,雷慶,
申請(專利權)人:華僑大學,
類型:發明
國別省市:福建;35
還沒有人留言評論。發表了對其他瀏覽者有用的留言會獲得科技券。