System.ArgumentOutOfRangeException: 索引和長度必須引用該字符串內(nèi)的位置。 參數(shù)名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 本道天堂成在人线av无码免费,精品无码一区二区三区亚洲桃色 ,成人无码精品1区2区3区免费看
  • 
    <ul id="o6k0g"></ul>
    <ul id="o6k0g"></ul>

    基于關(guān)鍵幀提取的人體行為識(shí)別方法及系統(tǒng)技術(shù)方案

    技術(shù)編號(hào):44435473 閱讀:3 留言:0更新日期:2025-02-28 18:45
    本發(fā)明專利技術(shù)提供了一種基于關(guān)鍵幀提取的人體行為識(shí)別方法及系統(tǒng),該方法包括:獲取每個(gè)關(guān)節(jié)點(diǎn)的三維位置信息和三維角度信息,構(gòu)建每一幀圖像的位置信息集和角度信息集;構(gòu)建每一幀圖像的多維數(shù)據(jù)集;基于幀序?qū)⑺瞿繕?biāo)監(jiān)測視頻中的圖像劃分為K個(gè)初始簇,定義左邊界集和右邊界集,并基于改進(jìn)的KKF算法迭代遍歷左邊界集和右邊界集,獲取K個(gè)最終簇;獲取每個(gè)最終簇的特征均值集,并計(jì)算特征距離,從同一最終簇下的多個(gè)特征距離中篩選出最小特征距離,并根據(jù)所述最小特征距離篩選出每一最終簇下的關(guān)鍵幀圖像,并根據(jù)所述關(guān)鍵幀圖像構(gòu)建人體行為識(shí)別模型。本發(fā)明專利技術(shù)能夠提高人體行為識(shí)別的準(zhǔn)確率。

    【技術(shù)實(shí)現(xiàn)步驟摘要】

    本專利技術(shù)涉及人體行為識(shí)別,尤其涉及一種基于關(guān)鍵幀提取的人體行為識(shí)別方法及系統(tǒng)


    技術(shù)介紹

    1、近年來,隨著智能安防和視頻監(jiān)控領(lǐng)域需求的日益增加,人體行為識(shí)別(humanaction?recognition)受到了越來越多研究者的關(guān)注,尤其是在實(shí)時(shí)監(jiān)控環(huán)境中的應(yīng)用。人體行為識(shí)別可以看作是一種行為檢測和識(shí)別任務(wù),旨在通過計(jì)算機(jī)視覺技術(shù)判斷視頻序列中是否發(fā)生了特定的行為。具體而言,在給定一段待識(shí)別視頻的情況下,系統(tǒng)需要實(shí)時(shí)識(shí)別并分類出其中發(fā)生的行為,并根據(jù)監(jiān)控視頻流判斷特定行為是否出現(xiàn)。這對(duì)于智能監(jiān)控、公共安全、異常行為檢測等具有重要應(yīng)用意義。

    2、隨著深度學(xué)習(xí)技術(shù)的發(fā)展,越來越深的神經(jīng)網(wǎng)絡(luò)被應(yīng)用于人體行為識(shí)別任務(wù)中,取得了顯著的識(shí)別效果。然而,隨著網(wǎng)絡(luò)深度的增加,計(jì)算機(jī)的負(fù)荷越來越大;同時(shí),由于攝像頭拍攝角度、運(yùn)動(dòng)模糊以及數(shù)據(jù)形式等因素的影響,也使得人體行為的識(shí)別變得更加復(fù)雜,增加了模型的誤識(shí)率和漏識(shí)率。


    技術(shù)實(shí)現(xiàn)思路

    1、本專利技術(shù)的目的在于提供一種基于關(guān)鍵幀提取的人體行為識(shí)別方法及系統(tǒng),旨在解決傳統(tǒng)技術(shù)存在的誤識(shí)率和漏識(shí)率較高的問題。

    2、第一方面,本專利技術(shù)提供一種基于關(guān)鍵幀提取的人體行為識(shí)別方法,所述方法包括:

    3、基于速度系數(shù)和身體尺寸系數(shù)對(duì)人體監(jiān)測視頻進(jìn)行數(shù)據(jù)增強(qiáng),得到目標(biāo)監(jiān)測視頻;

    4、構(gòu)建人體骨骼模型,所述人體骨骼模型包括多個(gè)關(guān)節(jié)點(diǎn),獲取每個(gè)關(guān)節(jié)點(diǎn)的三維位置信息和三維角度信息,并根據(jù)所述三維位置信息構(gòu)建每一幀圖像的位置信息集,根據(jù)所述三維角度信息構(gòu)建每一幀圖像的角度信息集;

    5、將同一幀圖像下的位置信息集和角度信息集進(jìn)行合并連接,得到每一幀圖像的多維數(shù)據(jù)集;

    6、基于幀序?qū)⑺瞿繕?biāo)監(jiān)測視頻中的圖像劃分為k個(gè)初始簇,并根據(jù)每一初始簇中包含的若干幀圖像定義左邊界集和右邊界集,并基于改進(jìn)的kkf算法迭代遍歷左邊界集和右邊界集,以根據(jù)遍歷結(jié)果獲取k個(gè)重新分類的最終簇;

    7、獲取每個(gè)最終簇的特征均值集,并計(jì)算每個(gè)最終簇中的每幀圖像的多維數(shù)據(jù)集與所屬最終簇的特征均值集之間的特征距離,從同一最終簇下的多個(gè)特征距離中篩選出最小特征距離,并根據(jù)所述最小特征距離篩選出每一最終簇下的關(guān)鍵幀圖像,并根據(jù)所述關(guān)鍵幀圖像構(gòu)建人體行為識(shí)別模型。

    8、綜上,根據(jù)上述的基于關(guān)鍵幀提取的人體行為識(shí)別方法,通過優(yōu)化輸入數(shù)據(jù)形式,減少外部干擾因素(如視角、角度變化等)對(duì)識(shí)別精度的影響,并結(jié)合高效的關(guān)鍵幀提取算法進(jìn)行模型訓(xùn)練,以提高整體識(shí)別的準(zhǔn)確率。具體地,通過在視頻流中提取關(guān)鍵幀,減少冗余數(shù)據(jù),從而提高處理效率和準(zhǔn)確率。關(guān)鍵幀的選擇不僅能加速視頻的處理速度,還能有效地捕捉到人體行為的重要特征,提高識(shí)別精度。這種方法對(duì)于實(shí)時(shí)監(jiān)控場景尤為適用,可以在確保高效性的同時(shí),提升人體行為識(shí)別的準(zhǔn)確率,尤其是在復(fù)雜環(huán)境下的監(jiān)控應(yīng)用中。

    9、進(jìn)一步地,所述構(gòu)建人體骨骼模型,所述人體骨骼模型包括多個(gè)關(guān)節(jié)點(diǎn),獲取每個(gè)關(guān)節(jié)點(diǎn)的三維位置信息和三維角度信息,并根據(jù)所述三維位置信息構(gòu)建每一幀圖像的位置信息集,根據(jù)所述三維角度信息構(gòu)建每一幀圖像的角度信息集的步驟包括:

    10、根據(jù)以下公式構(gòu)建位置信息集:

    11、

    12、其中,表示第i幀圖像的位置信息集,分別表示第i幀圖像的第1個(gè)關(guān)節(jié)點(diǎn)、第n個(gè)關(guān)節(jié)點(diǎn)、第15個(gè)關(guān)節(jié)點(diǎn)的x坐標(biāo),分別表示第i幀圖像的第1個(gè)關(guān)節(jié)點(diǎn)、第n個(gè)關(guān)節(jié)點(diǎn)、第15個(gè)關(guān)節(jié)點(diǎn)的y坐標(biāo),分別表示第i幀圖像的第1個(gè)關(guān)節(jié)點(diǎn)、第n個(gè)關(guān)節(jié)點(diǎn)、第15個(gè)關(guān)節(jié)點(diǎn)的z坐標(biāo);

    13、根據(jù)以下公式構(gòu)建角度信息集:

    14、

    15、其中,表示第i幀圖像的角度信息集,分別表示第i幀圖像的第1個(gè)關(guān)節(jié)點(diǎn)、第n個(gè)關(guān)節(jié)點(diǎn)、第15個(gè)關(guān)節(jié)點(diǎn)在x平面的角度信息,分別表示第i幀圖像的第1個(gè)關(guān)節(jié)點(diǎn)、第n個(gè)關(guān)節(jié)點(diǎn)、第15個(gè)關(guān)節(jié)點(diǎn)在y平面的角度信息,分別表示第i幀圖像的第1個(gè)關(guān)節(jié)點(diǎn)、第n個(gè)關(guān)節(jié)點(diǎn)、第15個(gè)關(guān)節(jié)點(diǎn)在z平面的角度信息。

    16、進(jìn)一步地,所述將同一幀圖像下的位置信息集和角度信息集進(jìn)行合并連接,得到與每一幀圖像對(duì)應(yīng)的多維數(shù)據(jù)集的步驟包括:

    17、根據(jù)以下公式獲取多維數(shù)據(jù)集:

    18、

    19、其中,表示第i幀圖像的多維數(shù)據(jù)集,表示對(duì)應(yīng)信息集中的最大值,表示對(duì)應(yīng)信息集中的最小值,表示歸一化操作函數(shù),、、、、、分別表示多維數(shù)據(jù)集中的第1維、第2維、第3維、第45維、第46維、第90維數(shù)據(jù)。

    20、進(jìn)一步地,所述基于幀序?qū)⑺瞿繕?biāo)監(jiān)測視頻中的圖像劃分為k個(gè)初始簇,并根據(jù)每一初始簇中包含的若干幀圖像定義左邊界集和右邊界集,并基于改進(jìn)的kkf算法迭代遍歷左邊界集和右邊界集,以根據(jù)遍歷結(jié)果獲取k個(gè)重新分類的最終簇的步驟包括:

    21、將所有幀圖像均勻劃分為k個(gè)初始化間隔,形成初始簇集,選取每個(gè)初始簇的第一幀圖像,以形成左邊界集,選取每個(gè)初始簇的最后一幀圖像,以形成右邊界集,其中,分別表示第1個(gè)、第2個(gè)、第k個(gè)初始簇,、分別表示第1個(gè)、第2個(gè)、第k個(gè)初始簇中的第一幀圖像,、分別表示第1個(gè)、第2個(gè)、第k個(gè)初始簇中的最后一幀圖像;

    22、在每個(gè)迭代遍歷過程中,先遍歷右邊界集,而后遍歷左邊界集,如此不斷循環(huán),直至新形成的k個(gè)簇的特征均值集均不發(fā)生變化,得到k個(gè)最終簇。

    23、進(jìn)一步地,遍歷右邊界集的步驟包括:

    24、步驟1.1、計(jì)算每個(gè)初始簇的特征均值集,令;

    25、步驟2.1、計(jì)算右邊界集中與初始簇對(duì)應(yīng)的圖像分別與當(dāng)前簇和下一簇的特征距離和;

    26、步驟3.1、判斷是否大于;

    27、步驟4.1、若大于,則將圖像移動(dòng)到下一簇中;

    28、步驟5.1、更新當(dāng)前簇和下一簇的特征均值集和?,并再次計(jì)算右邊界集中與初始簇對(duì)應(yīng)的新的圖像?與當(dāng)前簇和下一簇?的新特征距離和,直至小于或等于;

    29、步驟6.1、若小于或等于,則令,重復(fù)步驟2.1至步驟6.1,直至;

    30、遍歷左邊界集的步驟包括:

    31、步驟1.2、令,

    32、步驟2.2、計(jì)算左邊界集中與初始簇對(duì)應(yīng)的圖像分別與當(dāng)前簇和前一簇的特征距離和;

    33、步驟3.2、判斷是否小于;

    34、步驟4.2、若小于,則將圖像移動(dòng)到前一簇中;

    35、步驟5.2、更新當(dāng)前簇和前一簇的特征均值集和?,并再次計(jì)算左邊界集中與初始簇對(duì)應(yīng)的新的圖像?與當(dāng)前簇和前一簇?的新特征距離和,直至大于或等于;

    36、步驟6.2、若大于或等于,則令,重復(fù)步驟2.2至步驟6.2,直至。

    37、進(jìn)一步地,根據(jù)以下公式計(jì)算得到特征均值集:

    38、

    39、其中,表示與簇對(duì)應(yīng)的特征均值集,表示簇中的最后一幀圖像,表示簇中的第一幀圖像,表示與圖像t對(duì)應(yīng)的多維數(shù)據(jù)集中的第n維數(shù)據(jù),、、分別表示簇中的第1維、第2維、第90維、第n維特征均值。

    40、進(jìn)一步地,根據(jù)以下公式本文檔來自技高網(wǎng)...

    【技術(shù)保護(hù)點(diǎn)】

    1.一種基于關(guān)鍵幀提取的人體行為識(shí)別方法,其特征在于,所述方法包括:

    2.根據(jù)權(quán)利要求1所述的基于關(guān)鍵幀提取的人體行為識(shí)別方法,其特征在于,所述構(gòu)建人體骨骼模型,所述人體骨骼模型包括多個(gè)關(guān)節(jié)點(diǎn),獲取每個(gè)關(guān)節(jié)點(diǎn)的三維位置信息和三維角度信息,并根據(jù)所述三維位置信息構(gòu)建每一幀圖像的位置信息集,根據(jù)所述三維角度信息構(gòu)建每一幀圖像的角度信息集的步驟包括:

    3.根據(jù)權(quán)利要求2所述的基于關(guān)鍵幀提取的人體行為識(shí)別方法,其特征在于,所述將同一幀圖像下的位置信息集和角度信息集進(jìn)行合并連接,得到與每一幀圖像對(duì)應(yīng)的多維數(shù)據(jù)集的步驟包括:

    4.根據(jù)權(quán)利要求3所述的基于關(guān)鍵幀提取的人體行為識(shí)別方法,其特征在于,所述基于幀序?qū)⑺瞿繕?biāo)監(jiān)測視頻中的圖像劃分為K個(gè)初始簇,并根據(jù)每一初始簇中包含的若干幀圖像定義左邊界集和右邊界集,并基于改進(jìn)的KKF算法迭代遍歷左邊界集和右邊界集,以根據(jù)遍歷結(jié)果獲取K個(gè)重新分類的最終簇的步驟包括:

    5.根據(jù)權(quán)利要求4所述的基于關(guān)鍵幀提取的人體行為識(shí)別方法,其特征在于,遍歷右邊界集的步驟包括:

    6.根據(jù)權(quán)利要求5所述的基于關(guān)鍵幀提取的人體行為識(shí)別方法,其特征在于,根據(jù)以下公式計(jì)算得到特征均值集:

    7.根據(jù)權(quán)利要求6所述的基于關(guān)鍵幀提取的人體行為識(shí)別方法,其特征在于,根據(jù)以下公式計(jì)算得到特征距離:

    8.一種基于關(guān)鍵幀提取的人體行為識(shí)別系統(tǒng),其特征在于,所述系統(tǒng)包括:

    9.一種存儲(chǔ)介質(zhì),其特征在于,所述存儲(chǔ)介質(zhì)存儲(chǔ)一個(gè)或多個(gè)程序,該程序被處理器執(zhí)行時(shí)實(shí)現(xiàn)如權(quán)利要求1-7任一項(xiàng)所述的基于關(guān)鍵幀提取的人體行為識(shí)別方法。

    10.一種電子設(shè)備,所述電子設(shè)備包括存儲(chǔ)器和處理器,其中:

    ...

    【技術(shù)特征摘要】

    1.一種基于關(guān)鍵幀提取的人體行為識(shí)別方法,其特征在于,所述方法包括:

    2.根據(jù)權(quán)利要求1所述的基于關(guān)鍵幀提取的人體行為識(shí)別方法,其特征在于,所述構(gòu)建人體骨骼模型,所述人體骨骼模型包括多個(gè)關(guān)節(jié)點(diǎn),獲取每個(gè)關(guān)節(jié)點(diǎn)的三維位置信息和三維角度信息,并根據(jù)所述三維位置信息構(gòu)建每一幀圖像的位置信息集,根據(jù)所述三維角度信息構(gòu)建每一幀圖像的角度信息集的步驟包括:

    3.根據(jù)權(quán)利要求2所述的基于關(guān)鍵幀提取的人體行為識(shí)別方法,其特征在于,所述將同一幀圖像下的位置信息集和角度信息集進(jìn)行合并連接,得到與每一幀圖像對(duì)應(yīng)的多維數(shù)據(jù)集的步驟包括:

    4.根據(jù)權(quán)利要求3所述的基于關(guān)鍵幀提取的人體行為識(shí)別方法,其特征在于,所述基于幀序?qū)⑺瞿繕?biāo)監(jiān)測視頻中的圖像劃分為k個(gè)初始簇,并根據(jù)每一初始簇中包含的若干幀圖像定義左邊界集和右邊界集,并基于改...

    【專利技術(shù)屬性】
    技術(shù)研發(fā)人員:姚磊岳,曾超,熊建英,
    申請(qǐng)(專利權(quán))人:江西中醫(yī)藥大學(xué),
    類型:發(fā)明
    國別省市:

    網(wǎng)友詢問留言 已有0條評(píng)論
    • 還沒有人留言評(píng)論。發(fā)表了對(duì)其他瀏覽者有用的留言會(huì)獲得科技券。

    1
    主站蜘蛛池模板: 国产av无码专区亚洲av桃花庵| 精品久久久无码人妻字幂| 国产精品无码一二区免费| 国内精品久久人妻无码不卡| 无码精品蜜桃一区二区三区WW | 无码成人AAAAA毛片| 国产福利电影一区二区三区久久老子无码午夜伦不 | 亚洲va无码手机在线电影| 亚洲另类无码专区丝袜| 亚洲国产精品无码中文字| 成人h动漫精品一区二区无码| 久久国产加勒比精品无码| YW尤物AV无码国产在线观看| 无码人妻精品一区二区三区蜜桃| 中文无码久久精品| 亚洲AⅤ无码一区二区三区在线 | 亚洲级αV无码毛片久久精品| 亚洲AV无码成人精品区狼人影院| 亚洲av福利无码无一区二区| 亚洲精品无码鲁网中文电影| 精品无码综合一区| 国产精品无码DVD在线观看| 全免费a级毛片免费看无码| 亚洲AV无码一区二区乱子仑| 伊人久久大香线蕉无码| 少妇人妻无码精品视频app| 亚洲AV无码一区东京热| 亚洲日韩中文无码久久| 亚洲爆乳无码一区二区三区| 亚洲动漫精品无码av天堂| 国模GOGO无码人体啪啪| 无码人妻久久一区二区三区| 少妇无码一区二区二三区| 亚洲日韩乱码中文无码蜜桃臀| 无码av免费一区二区三区试看| 少妇人妻无码精品视频| 亚洲日韩国产二区无码| 蜜臀亚洲AV无码精品国产午夜.| 国产精品无码免费视频二三区| 少妇中文无码高清| 暴力强奷在线播放无码|