System.ArgumentOutOfRangeException: 索引和長(zhǎng)度必須引用該字符串內(nèi)的位置。 參數(shù)名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 最新亚洲人成无码网www电影,亚洲AV无码专区亚洲AV桃,东京热人妻无码人av
  • 
    <ul id="o6k0g"></ul>
    <ul id="o6k0g"></ul>

    基于差分特征增強(qiáng)的多視角中學(xué)實(shí)驗(yàn)步驟檢測(cè)方法及系統(tǒng)技術(shù)方案

    技術(shù)編號(hào):44348620 閱讀:2 留言:0更新日期:2025-02-25 09:35
    本發(fā)明專利技術(shù)公開了一種基于差分特征增強(qiáng)的多視角中學(xué)實(shí)驗(yàn)步驟檢測(cè)方法及系統(tǒng),首先對(duì)視頻進(jìn)行預(yù)處理,提取原始和差分視頻幀片段,通過特征提取器獲得視覺時(shí)序特征與差分運(yùn)動(dòng)特征,輸入編碼器學(xué)習(xí)時(shí)空依賴關(guān)系,并利用交叉注意力機(jī)制進(jìn)行特征融合,最終將融合后的多視角視覺時(shí)序特征通過解碼器輸出分類結(jié)果。本專利能夠更準(zhǔn)確地捕捉實(shí)驗(yàn)步驟的變化和動(dòng)作特征,提高了分類模型的精度和魯棒性,能夠有效解決人工檢測(cè)中學(xué)實(shí)驗(yàn)步驟會(huì)耗費(fèi)大量人力資源、已有方法未充分探索時(shí)序關(guān)系、效率低等問題,提高了檢測(cè)精度,因此具有較高的應(yīng)用價(jià)值和應(yīng)用前景。

    【技術(shù)實(shí)現(xiàn)步驟摘要】

    本專利技術(shù)屬于深度學(xué)習(xí)的,主要涉及了一種基于差分特征增強(qiáng)的多視角中學(xué)實(shí)驗(yàn)步驟檢測(cè)方法及系統(tǒng)


    技術(shù)介紹

    1、實(shí)驗(yàn)教學(xué)是課程方案和課程標(biāo)準(zhǔn)規(guī)定的重要教學(xué)內(nèi)容之一,是培養(yǎng)學(xué)生科學(xué)素養(yǎng)和創(chuàng)新能力的重要途徑。通過實(shí)驗(yàn)教學(xué),學(xué)生能夠親身參與科學(xué)實(shí)踐,探究科學(xué)規(guī)律,培養(yǎng)實(shí)驗(yàn)設(shè)計(jì)和操作能力,從而深化對(duì)課程知識(shí)的理解和應(yīng)用。因此,實(shí)驗(yàn)教學(xué)在中小學(xué)教育中具有不可替代的地位和作用,對(duì)學(xué)生的全面發(fā)展和素質(zhì)提升具有重要意義。

    2、然而當(dāng)前實(shí)驗(yàn)評(píng)價(jià)模式所面臨的多重挑戰(zhàn)。首先,教學(xué)時(shí)間有限,學(xué)生人數(shù)龐大,傳統(tǒng)評(píng)價(jià)方式可能無法及時(shí)、全面地評(píng)估每位學(xué)生的實(shí)驗(yàn)操作能力。其次,傳統(tǒng)評(píng)價(jià)方式可能存在主觀性和不一致性,導(dǎo)致評(píng)價(jià)結(jié)果的公正性受到質(zhì)疑。而人工智能技術(shù)具備實(shí)時(shí)分析和評(píng)價(jià)學(xué)生實(shí)驗(yàn)的能力,能夠自動(dòng)化地識(shí)別和評(píng)估學(xué)生的實(shí)驗(yàn)操作,并提供客觀、準(zhǔn)確的評(píng)價(jià)結(jié)果。此外,人工智能技術(shù)還能夠?yàn)榻⑷妗?biāo)準(zhǔn)化的評(píng)價(jià)框架提供支持,從而提高評(píng)價(jià)的一致性和公正性。因此,利用人工智能評(píng)價(jià)中學(xué)實(shí)驗(yàn)?zāi)軌蚋妗⒏咝У卦u(píng)估學(xué)生的實(shí)驗(yàn)操作能力,有助于提升科學(xué)教育的質(zhì)量和效果。

    3、目前,主流的研究方向集中在利用動(dòng)作識(shí)別算法來學(xué)習(xí)視頻中的時(shí)序關(guān)系,以實(shí)現(xiàn)對(duì)動(dòng)作類別的準(zhǔn)確檢測(cè)。然而,這些方法在處理中學(xué)實(shí)驗(yàn)等視頻數(shù)據(jù)時(shí)存在一些不足之處:首先,由于中學(xué)實(shí)驗(yàn)視頻通常具有較長(zhǎng)的時(shí)長(zhǎng),并且包含豐富的語義信息,傳統(tǒng)的動(dòng)作識(shí)別算法往往無法充分捕捉到其中的關(guān)鍵信息,導(dǎo)致對(duì)實(shí)驗(yàn)步驟和動(dòng)作的理解不足,這可能會(huì)導(dǎo)致對(duì)場(chǎng)景相關(guān)線索的過度擬合,進(jìn)而影響模型的泛化能力和檢測(cè)精度;其次,目前的動(dòng)作識(shí)別方法效率較低,不適合用于實(shí)時(shí)檢測(cè),從而限制了其在教學(xué)實(shí)踐和實(shí)驗(yàn)操作過程中的應(yīng)用。在實(shí)際應(yīng)用中,尤其是在教學(xué)場(chǎng)景下,實(shí)時(shí)性是至關(guān)重要的,而當(dāng)前的方法難以滿足這一需求,限制了其在實(shí)際教學(xué)中的應(yīng)用效果。


    技術(shù)實(shí)現(xiàn)思路

    1、本專利技術(shù)正是針對(duì)現(xiàn)有技術(shù)中實(shí)驗(yàn)步驟檢測(cè)不準(zhǔn)確、實(shí)時(shí)性差的問題,提供基于差分特征增強(qiáng)的多視角中學(xué)實(shí)驗(yàn)步驟檢測(cè)方法及系統(tǒng),首先對(duì)視頻進(jìn)行預(yù)處理,提取原始和差分視頻幀片段,通過特征提取器獲得視覺時(shí)序特征與差分運(yùn)動(dòng)特征,輸入編碼器學(xué)習(xí)時(shí)空依賴關(guān)系,并利用交叉注意力機(jī)制進(jìn)行特征融合,最終將融合后的多視角視覺時(shí)序特征通過解碼器輸出分類結(jié)果。本專利能夠更準(zhǔn)確地捕捉實(shí)驗(yàn)步驟的變化和動(dòng)作特征,提高了分類模型的精度和魯棒性,能夠有效解決人工檢測(cè)中學(xué)實(shí)驗(yàn)步驟會(huì)耗費(fèi)大量人力資源、已有方法未充分探索時(shí)序關(guān)系、效率低等問題,提高了檢測(cè)精度,因此具有較高的應(yīng)用價(jià)值和應(yīng)用前景。

    2、為了實(shí)現(xiàn)上述目的,本專利技術(shù)采取的技術(shù)方案是:基于差分特征增強(qiáng)的多視角中學(xué)實(shí)驗(yàn)步驟檢測(cè)方法,包括如下步驟:

    3、s1:輸入正面視角和俯視視角多視角的中學(xué)實(shí)驗(yàn)視頻,對(duì)兩個(gè)視角的視頻幀進(jìn)行預(yù)處理,以每個(gè)視角中每幀作為錨點(diǎn)中心獲得16幀一組的視頻幀片段,并通過幀差分得到差分視頻幀片段;

    4、s2:使用視覺大模型videomae對(duì)兩個(gè)視角的視頻幀片段進(jìn)行特征提取,獲取不同視角視頻幀級(jí)別的視覺時(shí)序特征與差分運(yùn)動(dòng)特征;

    5、s3:將步驟s2提取的兩個(gè)視角視頻幀級(jí)別的視覺時(shí)序特征與差分運(yùn)動(dòng)特征輸入編碼器,,利用多頭自注意力機(jī)制學(xué)習(xí)時(shí)空依賴關(guān)系;

    6、s4:經(jīng)過編碼的兩個(gè)視角視覺時(shí)序特征與差分運(yùn)動(dòng)特征輸入到解碼器中進(jìn)行融合;

    7、s5:使用融合差分運(yùn)動(dòng)特征的視覺時(shí)序特征的多視角特征進(jìn)行分類,輸出視頻幀的分類結(jié)果。

    8、作為本專利技術(shù)的一種改進(jìn),所述步驟s1具體包括如下步驟:

    9、s11,視頻幀預(yù)處理:將正面視角和俯視視角的中學(xué)實(shí)驗(yàn)視頻轉(zhuǎn)換為視頻幀序列,設(shè)置視頻片段的錨點(diǎn)作為片段中的關(guān)鍵幀,對(duì)視頻幀進(jìn)行采樣,以錨點(diǎn)為中心獲得16幀一組的視頻幀片段;所述視頻幀序列的尺寸為224*224;

    10、s12,視頻幀差分:在原始視頻幀片段中,第一幀x0不進(jìn)行差分操作,其他每一幀xi都減去第一幀x0得到差分視頻幀,得到差分視頻幀x′i;

    11、x′i=xi-x0;

    12、s13,數(shù)據(jù)標(biāo)準(zhǔn)化處理:對(duì)原始視頻幀和差分幀進(jìn)行標(biāo)準(zhǔn)化處理,將數(shù)據(jù)轉(zhuǎn)換成均值為0、標(biāo)準(zhǔn)差為1的分布,將原始視頻幀片段和差分視頻幀片段轉(zhuǎn)換為張量的格式,以便于輸入到深度學(xué)習(xí)模型中進(jìn)行訓(xùn)練;

    13、

    14、

    15、

    16、其中,xi表示視頻幀,μ和σ表示所有視頻幀的均值和標(biāo)準(zhǔn)差,zi是歸一化后的視頻幀。

    17、作為本專利技術(shù)的另一種改進(jìn),所述步驟s2中,采用視覺大模型videomae掩碼自編碼方法,從特征提取器輸出的兩個(gè)視角的視頻幀級(jí)別的視覺時(shí)序特征與差分運(yùn)動(dòng)特征圖譜進(jìn)入編碼器:

    18、

    19、其中,對(duì)于時(shí)刻t,我們將往前t個(gè)時(shí)刻的視頻幀一起送入特征提取器u中,得到當(dāng)前時(shí)刻的特征ft。

    20、作為本專利技術(shù)的另一種改進(jìn),所述步驟s3的編碼器至少包括空間注意力模塊和時(shí)序注意力模塊;

    21、所述空間注意力模塊:由多頭自注意力層構(gòu)成,包含注意力投影、計(jì)算注意力權(quán)重、加權(quán)求和和多頭機(jī)制;多頭注意力是利用多個(gè)查詢向量qi,并行地從輸入信息ki中選取多組信息,計(jì)算注意力得分后應(yīng)用縮放點(diǎn)積和softmax進(jìn)行歸一化約束注意力得分的范圍,最后與值vi加權(quán)求和得到輸出。對(duì)每個(gè)空間位置的權(quán)重進(jìn)行建模,利用多頭自注意力機(jī)制,在同一幀內(nèi)捕獲不同區(qū)域之間的依賴關(guān)系;

    22、

    23、所述時(shí)序注意力模塊:由多頭自注意力層構(gòu)成,捕捉視頻序列中不同幀之間的時(shí)間關(guān)系,并強(qiáng)調(diào)與任務(wù)相關(guān)的關(guān)鍵時(shí)刻或時(shí)段;

    24、

    25、其中,ft表示輸入的視頻序列特征,表示應(yīng)用多頭自注意力后得到的新的特征。

    26、作為本專利技術(shù)的又一種改進(jìn),所述步驟s4具體包括如下步驟:

    27、s41:利用交叉注意力機(jī)制分別從兩個(gè)視角差分特征中查詢有用的上下文信息;

    28、s42:將融合后的視覺時(shí)序特征與差分運(yùn)動(dòng)特征進(jìn)行加權(quán)求和;

    29、s43:得到最終的融合差分運(yùn)動(dòng)特征的視覺時(shí)序多視角特征圖譜:

    30、

    31、其中,編碼器的輸出特征作為查詢,運(yùn)用多頭注意力機(jī)制在視角差分特征sc尋找有用的信息來豐富自身,得到最終的融合特征

    32、為了實(shí)現(xiàn)上述目的,本專利技術(shù)還采取的技術(shù)方案是:基于差分特征增強(qiáng)的多視角中學(xué)實(shí)驗(yàn)步驟檢測(cè)系統(tǒng),包括計(jì)算機(jī)程序,所述計(jì)算機(jī)程序被處理器執(zhí)行時(shí)實(shí)現(xiàn)如上述任一種所述方法的步驟。

    33、與現(xiàn)有技術(shù)相比,本專利技術(shù)具有的有益效果:

    34、(1)本專利技術(shù)采用差分特征增強(qiáng)的方法,從而更加精準(zhǔn)地捕捉到實(shí)驗(yàn)步驟的變化和動(dòng)作特征,有助于提高分類模型的精度和魯棒性;

    35、(2)本專利技術(shù)方法能夠更有效地學(xué)習(xí)視頻中的時(shí)空依賴關(guān)系,有助于捕捉到實(shí)驗(yàn)步驟的重要信息,提升檢測(cè)精度;

    36、(3)本專利技術(shù)方法能夠有效解決人工檢測(cè)中學(xué)實(shí)驗(yàn)步驟會(huì)耗費(fèi)大量人力資源、已有方法未充分探索時(shí)序關(guān)系、效率低等問本文檔來自技高網(wǎng)...

    【技術(shù)保護(hù)點(diǎn)】

    1.基于差分特征增強(qiáng)的多視角中學(xué)實(shí)驗(yàn)步驟檢測(cè)方法,其特征在于,包括如下步驟:

    2.如權(quán)利要求1所述的基于差分特征增強(qiáng)的多視角中學(xué)實(shí)驗(yàn)步驟檢測(cè)方法,其特征在于:所述步驟S1具體包括如下步驟:

    3.如權(quán)利要求1所述的基于差分特征增強(qiáng)的多視角中學(xué)實(shí)驗(yàn)步驟檢測(cè)方法,其特征在于:所述步驟S2中,采用視覺大模型VideoMAE掩碼自編碼方法,從特征提取器輸出的兩個(gè)視角的視頻幀級(jí)別的視覺時(shí)序特征與差分運(yùn)動(dòng)特征圖譜進(jìn)入編碼器:

    4.如權(quán)利要求3所述的基于差分特征增強(qiáng)的多視角中學(xué)實(shí)驗(yàn)步驟檢測(cè)方法,其特征在于:所述步驟S3的編碼器至少包括空間注意力模塊和時(shí)序注意力模塊;

    5.如權(quán)利要求4所述的基于差分特征增強(qiáng)的多視角中學(xué)實(shí)驗(yàn)步驟檢測(cè)方法,其特征在于:所述步驟S4具體包括如下步驟:

    6.基于差分特征增強(qiáng)的多視角中學(xué)實(shí)驗(yàn)步驟檢測(cè)系統(tǒng),包括計(jì)算機(jī)程序,其特征在于:所述計(jì)算機(jī)程序被處理器執(zhí)行時(shí)實(shí)現(xiàn)如上述任一種所述方法的步驟。

    【技術(shù)特征摘要】

    1.基于差分特征增強(qiáng)的多視角中學(xué)實(shí)驗(yàn)步驟檢測(cè)方法,其特征在于,包括如下步驟:

    2.如權(quán)利要求1所述的基于差分特征增強(qiáng)的多視角中學(xué)實(shí)驗(yàn)步驟檢測(cè)方法,其特征在于:所述步驟s1具體包括如下步驟:

    3.如權(quán)利要求1所述的基于差分特征增強(qiáng)的多視角中學(xué)實(shí)驗(yàn)步驟檢測(cè)方法,其特征在于:所述步驟s2中,采用視覺大模型videomae掩碼自編碼方法,從特征提取器輸出的兩個(gè)視角的視頻幀級(jí)別的視覺時(shí)序特征與差分運(yùn)動(dòng)特征圖譜進(jìn)入編碼...

    【專利技術(shù)屬性】
    技術(shù)研發(fā)人員:陳燚袁浩淼章亞寧周俊生顧彥慧
    申請(qǐng)(專利權(quán))人:南京師范大學(xué)
    類型:發(fā)明
    國(guó)別省市:

    網(wǎng)友詢問留言 已有0條評(píng)論
    • 還沒有人留言評(píng)論。發(fā)表了對(duì)其他瀏覽者有用的留言會(huì)獲得科技券。

    1
    主站蜘蛛池模板: 国产精品无码AV一区二区三区| 国产在线无码视频一区二区三区| 无码日韩人妻av一区免费| 亚洲另类无码专区丝袜| 亚洲精品无码你懂的网站| 精品亚洲AV无码一区二区| 国产精品xxxx国产喷水亚洲国产精品无码久久一区 | 国产真人无码作爱免费视频| 久久av无码专区亚洲av桃花岛| av无码东京热亚洲男人的天堂| 激情无码人妻又粗又大中国人| 国产成人无码AⅤ片在线观看| 特级毛片内射www无码| 无码人妻黑人中文字幕| 特级无码a级毛片特黄| 久久久久av无码免费网| 亚洲国产精品无码久久一区二区| 国产精品亚洲一区二区无码| 亚洲爆乳无码专区www| 日韩免费无码一区二区三区| 亚洲情XO亚洲色XO无码| 亚洲国产精品无码久久九九 | 日韩av无码国产精品| 久久亚洲精品无码AV红樱桃 | 国产av永久无码天堂影院| 免费人妻无码不卡中文字幕18禁| 精品亚洲AV无码一区二区 | 6080YYY午夜理论片中无码| 亚洲国产精品无码成人片久久| 精品久久久无码中文字幕| 免费无码又爽又黄又刺激网站| 蜜臀AV无码精品人妻色欲| 亚洲AV无码资源在线观看| 亚洲av成人无码网站…| 国产精品无码久久四虎| 国产午夜激无码av毛片| 国产V片在线播放免费无码| 亚洲AV无码乱码精品国产| 国产日韩AV免费无码一区二区三区 | 2024你懂的网站无码内射| 亚洲国产AV无码一区二区三区|