System.ArgumentOutOfRangeException: 索引和長度必須引用該字符串內(nèi)的位置。 參數(shù)名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 无码午夜人妻一区二区不卡视频,一本加勒比hezyo无码专区,日韩毛片无码永久免费看
  • 
    <ul id="o6k0g"></ul>
    <ul id="o6k0g"></ul>

    一種基于人工智能的動(dòng)捕采集方法及系統(tǒng)技術(shù)方案

    技術(shù)編號(hào):43832592 閱讀:10 留言:0更新日期:2024-12-31 18:31
    本發(fā)明專利技術(shù)提供了一種基于人工智能的動(dòng)捕采集方法及系統(tǒng),包括:基于多維度傳感器對(duì)人體的體征表征信息進(jìn)行多維度采集,并對(duì)采集到的體征表征信息進(jìn)行預(yù)處理;基于預(yù)處理后的體征表征信息對(duì)深度學(xué)習(xí)模型進(jìn)行訓(xùn)練和優(yōu)化,并對(duì)訓(xùn)練和優(yōu)化后的深度學(xué)習(xí)模型進(jìn)行多維度應(yīng)用場(chǎng)景交互適配;對(duì)多維度傳感器采集的實(shí)時(shí)體征信息進(jìn)行融合,并將融合結(jié)果輸入至適配后的深度學(xué)習(xí)模型進(jìn)行分析,且基于多維度應(yīng)用場(chǎng)景交互適配結(jié)果將分析結(jié)果反饋至對(duì)應(yīng)管理終端。提高了對(duì)動(dòng)作捕捉的效率以及可靠性,同時(shí),也簡化的動(dòng)作捕捉的操作,保障了對(duì)動(dòng)作捕捉的效果。

    【技術(shù)實(shí)現(xiàn)步驟摘要】

    本專利技術(shù)涉及數(shù)據(jù)處理,特別涉及一種基于人工智能的動(dòng)捕采集方法及系統(tǒng)


    技術(shù)介紹

    1、目前,隨著科技的不斷發(fā)展,運(yùn)動(dòng)捕捉技術(shù)已成為影視、游戲等產(chǎn)業(yè)中不可或缺的一部分,近年來,基于人工智能的動(dòng)捕技術(shù)因其高精度、實(shí)時(shí)性和穩(wěn)定性等優(yōu)點(diǎn)而逐漸受到重視;

    2、但是,傳統(tǒng)的運(yùn)動(dòng)捕捉方法主要依賴于電磁感應(yīng)、光學(xué)標(biāo)記和慣性測(cè)量等方式,但這些方法存在設(shè)備昂貴、操作復(fù)雜、局限性強(qiáng)等問題,同時(shí),無法對(duì)運(yùn)動(dòng)捕捉進(jìn)行主動(dòng)學(xué)習(xí),導(dǎo)致運(yùn)行捕捉效率以及捕捉準(zhǔn)確性下降;

    3、因此,為了克服上述缺陷,本專利技術(shù)提供了一種基于人工智能的動(dòng)捕采集方法及系統(tǒng)。


    技術(shù)實(shí)現(xiàn)思路

    1、本專利技術(shù)提供一種基于人工智能的動(dòng)捕采集方法及系統(tǒng),用以通過多維度傳感器對(duì)人體的體征表征信息進(jìn)行多維度采集,確保了采集到的體征表征信息的全面性以及可靠性,從而便于根據(jù)采集到的體征表征信息對(duì)深度學(xué)習(xí)模型進(jìn)行訓(xùn)練和優(yōu)化,其次,對(duì)采集到的體征表征信息進(jìn)行預(yù)處理,并根據(jù)預(yù)處理結(jié)果對(duì)深度學(xué)習(xí)模型進(jìn)行訓(xùn)練和優(yōu)化,確保了深度學(xué)習(xí)的準(zhǔn)確可靠性,同時(shí),對(duì)深度學(xué)習(xí)模型進(jìn)行多維度應(yīng)用場(chǎng)景交互適配,便于確保深度學(xué)習(xí)模型能夠在不同的應(yīng)用場(chǎng)景進(jìn)行運(yùn)用,從而提高在不同應(yīng)用場(chǎng)景下對(duì)動(dòng)作進(jìn)行捕捉采集的可靠性,最后,將采集到的實(shí)時(shí)體征信息進(jìn)行融合,便于深度學(xué)習(xí)模型從整體上對(duì)人體動(dòng)作進(jìn)行全面有效的捕捉,并將融合結(jié)果傳輸至適配后的深度學(xué)習(xí)模型進(jìn)行分析,確保了最終得到的動(dòng)作信息的準(zhǔn)確可靠性,并將得到的分析結(jié)果反饋至管理終端進(jìn)行管理,提高了對(duì)動(dòng)作捕捉的效率以及可靠性,同時(shí),也簡化的動(dòng)作捕捉的操作,保障了對(duì)動(dòng)作捕捉的效果。

    2、本專利技術(shù)提供了一種基于人工智能的動(dòng)捕采集方法,包括:

    3、步驟1:基于多維度傳感器對(duì)人體的體征表征信息進(jìn)行多維度采集,并對(duì)采集到的體征表征信息進(jìn)行預(yù)處理;

    4、步驟2:基于預(yù)處理后的體征表征信息對(duì)深度學(xué)習(xí)模型進(jìn)行訓(xùn)練和優(yōu)化,并對(duì)訓(xùn)練和優(yōu)化后的深度學(xué)習(xí)模型進(jìn)行多維度應(yīng)用場(chǎng)景交互適配;

    5、步驟3:對(duì)多維度傳感器采集的實(shí)時(shí)體征信息進(jìn)行融合,并將融合結(jié)果輸入至適配后的深度學(xué)習(xí)模型進(jìn)行分析,且基于多維度應(yīng)用場(chǎng)景交互適配結(jié)果將分析結(jié)果反饋至對(duì)應(yīng)管理終端。

    6、優(yōu)選的,一種基于人工智能的動(dòng)捕采集方法,步驟1中,基于多維度傳感器對(duì)人體的體征表征信息進(jìn)行多維度采集,包括:

    7、獲取對(duì)人體的體征表征信息的采集項(xiàng)目,并確定不同采集項(xiàng)目在人體上對(duì)應(yīng)的采集部位;

    8、提取采集部位的部位特征,并基于部位特征對(duì)多維度傳感器進(jìn)行特定追蹤點(diǎn)標(biāo)記,且基于標(biāo)記結(jié)果對(duì)多維度傳感器進(jìn)行定點(diǎn)追蹤配置;

    9、基于定點(diǎn)追蹤配置結(jié)果向多維度傳感器下發(fā)數(shù)據(jù)采集指令,并基于數(shù)據(jù)采集指令控制多維度傳感器對(duì)相應(yīng)采集部位進(jìn)行實(shí)時(shí)追蹤,得到人體的體征表征信息。

    10、優(yōu)選的,一種基于人工智能的動(dòng)捕采集方法,步驟1中,對(duì)采集到的體征表征信息進(jìn)行預(yù)處理,包括:

    11、獲取采集到的體征表征信息,并對(duì)體征表征信息進(jìn)行維度拆分,且將維度拆分后的體征表征信息進(jìn)行序列化處理,得到體征表征信息序列;

    12、將每一維度下相鄰時(shí)刻的體征表征信息進(jìn)行狀態(tài)比對(duì),并基于狀態(tài)比對(duì)確定每一維度下體征表征信息的變化量;

    13、基于編碼規(guī)則對(duì)不同的變化量進(jìn)行數(shù)字編碼,并基于體征表征信息序列對(duì)數(shù)據(jù)編碼結(jié)果進(jìn)行邏輯關(guān)聯(lián),得到體征表征信息對(duì)應(yīng)的數(shù)字信號(hào),且基于數(shù)字信號(hào)對(duì)體征表征信息進(jìn)行預(yù)處理。

    14、優(yōu)選的,一種基于人工智能的動(dòng)捕采集方法,基于數(shù)字信號(hào)對(duì)體征表征信息進(jìn)行預(yù)處理,包括:

    15、獲取得到的體征表征信息對(duì)應(yīng)的數(shù)字信號(hào),并確定每一點(diǎn)的相鄰目標(biāo)個(gè)點(diǎn)的數(shù)字信號(hào)的平均值,且基于平均值對(duì)當(dāng)前點(diǎn)的目標(biāo)值進(jìn)行替換;

    16、基于替換結(jié)果確定對(duì)體征表征信息對(duì)應(yīng)的數(shù)字信號(hào)的濾波頻段,并基于濾波頻段對(duì)濾波器進(jìn)行參數(shù)配置,且基于參數(shù)配配置結(jié)果對(duì)體征表征信息進(jìn)行濾波處理;

    17、基于濾波處理結(jié)果確定體征表征信息的數(shù)字信號(hào)在時(shí)域中的取值特征,并將時(shí)域的取值特征作為第一數(shù)據(jù)特征;

    18、同時(shí),基于預(yù)設(shè)規(guī)則將體征表征信息的數(shù)字信號(hào)進(jìn)行頻域轉(zhuǎn)換,并基于頻域轉(zhuǎn)換結(jié)果確定體征表征信息的數(shù)字信號(hào)的不同頻率分量的分布和強(qiáng)度特征,且將不同頻率分量的分布和強(qiáng)度特征作為第二數(shù)據(jù)特征;

    19、將第一數(shù)據(jù)特征和第二數(shù)據(jù)特征進(jìn)行匯總,得到體征表征信息目標(biāo)數(shù)據(jù)特征。

    20、優(yōu)選的,一種基于人工智能的動(dòng)捕采集方法,步驟2中,基于預(yù)處理后的體征表征信息對(duì)深度學(xué)習(xí)模型進(jìn)行訓(xùn)練和優(yōu)化,并對(duì)訓(xùn)練和優(yōu)化后的深度學(xué)習(xí)模型進(jìn)行多維度應(yīng)用場(chǎng)景交互適配,包括:

    21、獲取預(yù)處理后的體征表征信息,并基于預(yù)設(shè)人體監(jiān)測(cè)部位對(duì)體征表征信息進(jìn)行數(shù)據(jù)對(duì)象劃分,得到子動(dòng)作數(shù)據(jù)集;

    22、提取子動(dòng)作數(shù)據(jù)集的數(shù)據(jù)特征,并基于數(shù)據(jù)特征確定對(duì)應(yīng)監(jiān)測(cè)部位的動(dòng)作姿態(tài);

    23、基于動(dòng)作姿態(tài)對(duì)監(jiān)測(cè)部位的執(zhí)行動(dòng)作進(jìn)行拆分,得到動(dòng)作分支集合以及對(duì)應(yīng)的關(guān)節(jié)點(diǎn),并基于拆分結(jié)果根據(jù)子動(dòng)作數(shù)據(jù)集的目標(biāo)取值對(duì)動(dòng)作分支集合中各動(dòng)作分支的動(dòng)作參量進(jìn)行量化;

    24、基于量化結(jié)果得到每一動(dòng)作分支的執(zhí)行參量特征,同時(shí),獲取關(guān)節(jié)點(diǎn)在相應(yīng)執(zhí)行參量特征下的位置變化特征,并將執(zhí)行參量特征和關(guān)節(jié)點(diǎn)的位置變化特征進(jìn)行關(guān)聯(lián);

    25、對(duì)同一監(jiān)測(cè)部位在不同場(chǎng)景下的執(zhí)行參量特征和關(guān)節(jié)點(diǎn)的位置變化特征的關(guān)聯(lián)結(jié)果進(jìn)行統(tǒng)計(jì),并基于統(tǒng)計(jì)結(jié)果構(gòu)建動(dòng)作對(duì)照組;

    26、對(duì)動(dòng)作對(duì)照組進(jìn)行映射分析,得到每一監(jiān)測(cè)部位在時(shí)間和空間維度上的動(dòng)作特征表征以及對(duì)應(yīng)的動(dòng)作特征參數(shù);

    27、基于動(dòng)作特征表征和動(dòng)作特征參數(shù)對(duì)深度學(xué)習(xí)模型進(jìn)行迭代訓(xùn)練,并基于每一次迭代訓(xùn)練后深度學(xué)習(xí)模型的模型損失值;

    28、基于模型損失值確定下一次迭代訓(xùn)練的模型優(yōu)化方向和參量,并基于模型損失值、模型優(yōu)化方向和參量對(duì)深度學(xué)習(xí)模型進(jìn)行負(fù)反饋迭代優(yōu)化,完成對(duì)深度學(xué)習(xí)模型的訓(xùn)練和優(yōu)化。

    29、優(yōu)選的,一種基于人工智能的動(dòng)捕采集方法,步驟2中,對(duì)訓(xùn)練和優(yōu)化后的深度學(xué)習(xí)模型進(jìn)行多維度應(yīng)用場(chǎng)景交互適配,包括:

    30、獲取訓(xùn)練和優(yōu)化后的深度學(xué)習(xí)模型,同時(shí),獲取深度學(xué)習(xí)模型的應(yīng)用場(chǎng)景,并基于應(yīng)用場(chǎng)景的執(zhí)行項(xiàng)目確定對(duì)應(yīng)的交互需求;

    31、基于交互需求確定深度學(xué)習(xí)模型在不同應(yīng)用場(chǎng)景的輸出和交互方式,并基于輸出和交互方式在深度學(xué)習(xí)模型中添加附屬協(xié)同機(jī)制;

    32、基于添加結(jié)果對(duì)不同應(yīng)用場(chǎng)景的附屬協(xié)同機(jī)制添加執(zhí)行邏輯判斷機(jī)制,并將執(zhí)行邏輯判斷機(jī)制與深度學(xué)習(xí)模型進(jìn)行參數(shù)關(guān)聯(lián);

    33、基于參數(shù)關(guān)聯(lián)結(jié)果完成對(duì)深度學(xué)習(xí)模型的多維度應(yīng)用場(chǎng)景交互適配。

    34、優(yōu)選的,一種基于人工智能的動(dòng)捕采集方法,步驟3中,對(duì)多維度傳感器采集的實(shí)時(shí)體征信息進(jìn)行融合,并將融合結(jié)果輸入至適配后的深度學(xué)習(xí)模型進(jìn)行分析,包括:

    35、獲取多維度傳感器采集的實(shí)時(shí)體征信息,并提取實(shí)時(shí)體征信息對(duì)應(yīng)的時(shí)間戳信息;

    36、基于時(shí)間戳將多本文檔來自技高網(wǎng)...

    【技術(shù)保護(hù)點(diǎn)】

    1.一種基于人工智能的動(dòng)捕采集方法,其特征在于,包括:

    2.根據(jù)權(quán)利要求1所述的一種基于人工智能的動(dòng)捕采集方法,其特征在于,步驟1中,基于多維度傳感器對(duì)人體的體征表征信息進(jìn)行多維度采集,包括:

    3.根據(jù)權(quán)利要求1所述的一種基于人工智能的動(dòng)捕采集方法,其特征在于,步驟1中,對(duì)采集到的體征表征信息進(jìn)行預(yù)處理,包括:

    4.根據(jù)權(quán)利要求3所述的一種基于人工智能的動(dòng)捕采集方法,其特征在于,基于數(shù)字信號(hào)對(duì)體征表征信息進(jìn)行預(yù)處理,包括:

    5.根據(jù)權(quán)利要求1所述的一種基于人工智能的動(dòng)捕采集方法,其特征在于,步驟2中,基于預(yù)處理后的體征表征信息對(duì)深度學(xué)習(xí)模型進(jìn)行訓(xùn)練和優(yōu)化,并對(duì)訓(xùn)練和優(yōu)化后的深度學(xué)習(xí)模型進(jìn)行多維度應(yīng)用場(chǎng)景交互適配,包括:

    6.根據(jù)權(quán)利要求1所述的一種基于人工智能的動(dòng)捕采集方法,其特征在于,步驟2中,對(duì)訓(xùn)練和優(yōu)化后的深度學(xué)習(xí)模型進(jìn)行多維度應(yīng)用場(chǎng)景交互適配,包括:

    7.根據(jù)權(quán)利要求1所述的一種基于人工智能的動(dòng)捕采集方法,其特征在于,步驟3中,對(duì)多維度傳感器采集的實(shí)時(shí)體征信息進(jìn)行融合,并將融合結(jié)果輸入至適配后的深度學(xué)習(xí)模型進(jìn)行分析,包括:

    8.根據(jù)權(quán)利要求1所述的一種基于人工智能的動(dòng)捕采集方法,其特征在于,步驟3中,基于多維度應(yīng)用場(chǎng)景交互適配結(jié)果將分析結(jié)果反饋至對(duì)應(yīng)管理終端,包括:

    9.一種基于人工智能的動(dòng)捕采集系統(tǒng),其特征在于,包括:

    10.根據(jù)權(quán)利要求9所述的一種基于人工智能的動(dòng)捕采集系統(tǒng),其特征在于,數(shù)據(jù)采集及預(yù)處理模塊,包括:

    ...

    【技術(shù)特征摘要】

    1.一種基于人工智能的動(dòng)捕采集方法,其特征在于,包括:

    2.根據(jù)權(quán)利要求1所述的一種基于人工智能的動(dòng)捕采集方法,其特征在于,步驟1中,基于多維度傳感器對(duì)人體的體征表征信息進(jìn)行多維度采集,包括:

    3.根據(jù)權(quán)利要求1所述的一種基于人工智能的動(dòng)捕采集方法,其特征在于,步驟1中,對(duì)采集到的體征表征信息進(jìn)行預(yù)處理,包括:

    4.根據(jù)權(quán)利要求3所述的一種基于人工智能的動(dòng)捕采集方法,其特征在于,基于數(shù)字信號(hào)對(duì)體征表征信息進(jìn)行預(yù)處理,包括:

    5.根據(jù)權(quán)利要求1所述的一種基于人工智能的動(dòng)捕采集方法,其特征在于,步驟2中,基于預(yù)處理后的體征表征信息對(duì)深度學(xué)習(xí)模型進(jìn)行訓(xùn)練和優(yōu)化,并對(duì)訓(xùn)練和優(yōu)化后的深度學(xué)習(xí)模型進(jìn)行多維度應(yīng)用場(chǎng)景交互適配,包括:

    【專利技術(shù)屬性】
    技術(shù)研發(fā)人員:王立軍
    申請(qǐng)(專利權(quán))人:江蘇奧格視特信息科技有限公司
    類型:發(fā)明
    國別省市:

    網(wǎng)友詢問留言 已有0條評(píng)論
    • 還沒有人留言評(píng)論。發(fā)表了對(duì)其他瀏覽者有用的留言會(huì)獲得科技券。

    1
    主站蜘蛛池模板: 少妇伦子伦精品无码STYLES| 久久久久久国产精品免费无码| 人妻无码中文字幕免费视频蜜桃| 乱人伦人妻中文字幕无码久久网| 亚洲成a人片在线观看无码专区| 久久久久久国产精品无码超碰| 男人av无码天堂| 国产成人无码综合亚洲日韩| 少妇无码AV无码专区线| 久久国产加勒比精品无码| 天堂Av无码Av一区二区三区| 色爱无码AV综合区| 中文字幕乱偷无码AV先锋| 日本精品人妻无码免费大全| 久久精品成人无码观看56| AV无码小缝喷白浆在线观看| 亚洲av无码专区国产不乱码| 无码中文字幕乱在线观看| 2014AV天堂无码一区| 日韩中文无码有码免费视频 | 久久久久无码精品国产h动漫| 高潮潮喷奶水飞溅视频无码| 内射无码午夜多人| 在线看片无码永久免费aⅴ| 无码精品国产dvd在线观看9久| 亚洲Av综合色区无码专区桃色| 国产高清无码毛片| 久久精品无码av| 中文字幕人妻无码一区二区三区| 办公室丝袜激情无码播放| 无码综合天天久久综合网| 日韩人妻系列无码专区| 无码人妻AⅤ一区二区三区水密桃| 无码专区永久免费AV网站| 亚洲精品无码av中文字幕| 无码少妇丰满熟妇一区二区| 熟妇人妻无码中文字幕老熟妇| 国模无码一区二区三区| 内射无码午夜多人| 亚洲AV无码乱码国产麻豆| 男人的天堂无码动漫AV|