System.ArgumentOutOfRangeException: 索引和長度必須引用該字符串內的位置。 參數名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 亚洲AV无码一区二区三区性色 ,毛片免费全部播放无码,国产aⅴ无码专区亚洲av麻豆
  • 
    <ul id="o6k0g"></ul>
    <ul id="o6k0g"></ul>

    基于魯棒增強學習的在線人類活動識別方法技術

    技術編號:43250187 閱讀:19 留言:0更新日期:2024-11-08 20:34
    本發明專利技術涉及人類活動識別技術領域,具體為基于魯棒增強學習的在線人類活動識別方法,包括:在線人類活動問題的形式化,傳感器事件的時空編碼,活動識別任務,數據增強,模型聯合訓練。本發明專利技術中,通過利用傳感器事件的時空編碼、對比自監督學習、更適合在線場景的魯棒性數據增強,緩解傳統活動識別模型存在的忽視時空關聯性(活動與場景的語義關系)、缺乏對無標注數據的利用、實時表現差的問題,從而提高模型的泛化能力和在線識別精度。相比現有的基于自監督學習的識別模型,所提出的方法可以更好地模擬在線場景中的數據擾動和不確定性,生成高置信度的增強樣本,從而學習到更好的數據表示、提升模型魯棒性以及預測性能。

    【技術實現步驟摘要】

    本專利技術涉及人類活動識別,尤其涉及基于魯棒增強學習的在線人類活動識別方法


    技術介紹

    1、基于傳感器的人類活動識別(har)系統有助于識別單人或多人所執行的活動,并提供翔實的反饋干預,是推理人類意圖和行動的基礎。針對用戶行為的天然復雜性、多模態傳感器信號的噪聲問題以及用戶隱私保護的需要,對精確有效的人類活動識別模型提出挑戰。然而在現實應用的實時性要求和資源受限的條件下,在持續監測的物理空間中基于非接觸式環境傳感器的人體活動識別要保持高性能和低資源消耗,面臨著許多技術挑戰。

    2、例如:深度學習模型在基于傳感器的har領域占據主導地位,它們通常是資源密集型的,不能完全翻譯活動和場景之間的關系語義,因此缺乏對復雜活動的敏感性,例如多用戶并發活動;知識驅動結合來自不同來源的信息來構建領域知識,用于復雜的活動識別,如交錯和并發活動。然而,知識驅動的方法通常需要完整的領域知識和綜合預處理構建活動模型。

    3、現有技術中關于傳感器數據的活動識別建模,主要工作從特征提取和活動類別識別兩個角度著手,基于csi,bv,wifi、可穿戴傳感、環境傳感器信號等多模態信息,使用小波變換、機器學習、深度學習技術,通過注意力機制、殘差網絡、在線學習和主動學習等技術來提升人類活動識別模型的性能。然而在現實應用的實時性要求、標注數據有限、噪聲干擾的條件下,在持續監測的物理空間中基于非接觸式環境傳感器的人體活動識別要保持高性能和低資源消耗,當前的專利技術仍然面臨著許多技術挑戰:

    4、(1)基于滑動窗口的模型在基于傳感器的har領域占據主導地位,天然面臨用戶交叉活動和多用戶并發活動的挑戰,當前的專利技術不能完全翻譯活動和場景之間的關系語義,因此缺乏對復雜活動的敏感性和識別能力。

    5、(2)真實環境面臨噪聲混雜、數據標注成本高等問題,現有的專利技術缺乏對無標注數據的利用和抗干擾能力。


    技術實現思路

    1、針對在現實應用的實時性要求和資源受限的條件下,在持續監測的物理空間中基于非接觸式環境傳感器的人體活動識別要保持高性能和低資源消耗,面臨的的上述技術挑戰,為此本專利技術設計一種魯棒增強學習的在線人類活動識別方法,旨在通過利用傳感器事件的時空編碼、對比自監督學習、更適合在線場景的魯棒性數據增強,緩解傳統活動識別模型存在的忽視時空關聯性(活動與場景的語義關系)、缺乏對無標注數據的利用、實時表現差的問題,從而提高模型的泛化能力和在線識別精度。相比現有的基于自監督學習的識別模型,所提出的方法可以更好地模擬在線場景中的數據擾動和不確定性,生成高置信度的增強樣本,從而學習到更好的數據表示、提升模型魯棒性以及預測性能。

    2、本專利技術采用了如下技術方案:基于魯棒增強學習的在線人類活動識別方法,包括以下步驟:

    3、s1:智能家居環境中,收集的每條數據被存儲為元組<日期、時間、傳感器id、值>的形式,稱之為事件,每個事件都將有唯一的活動與之對應;

    4、其中,時間、傳感器以及活動的集合分別定義為t=[1,2,…,24],s=[…,s,…]與a=[…,a,…],其中,24代表時間為24點;

    5、s2:對事件數據進行時空聯合編碼,統計數據集中所有出現過的時間-傳感器對(t,s),并將其組成事件集合e;

    6、其中,e=t||s表示事件的時空編碼,由時間與傳感器編碼拼接得到;

    7、s3:進行在線活動識別時,可以使用多種類型的編碼器來捕獲和轉換輸入數據的特征以進行有效的識別,即先使用編碼器來提取窗口事件的特征表示,再交給下游的分類器進行具體活動的識別;

    8、s4:通過在訓練階段人為地加入噪聲,讓模型在面對帶噪聲的數據時能夠學會過濾無關的干擾因素,提高模型在真實世界中遇到噪聲數據時的魯棒性,提出兩種隨機數據增強操作:隨機掩碼和隨機亂序;

    9、其中,隨機掩碼(m),使用掩碼符[mask]替換窗口中的部分事件編碼,由超參數0≤η≤1控制掩碼比例,掩碼數量為|η·n|:

    10、

    11、其中,當ej被選中時,e′j為掩碼符[mask],否則ej為原事件符;

    12、其中,隨機亂序(r),將窗口中的一部分子序列[ej,...,ej+m-1]隨機打亂為[e′j,...,e′j+m-1],由超參數μ控制增強比例,亂序長度為

    13、

    14、s5:在線場景下的窗口有著特有的連續性,在完整的事件序列上進行滑動,提出了兩種適用在線場景的數據增強,基于圖轉換關系的插入與替換操作;

    15、基于窗口內事件的時序相關性構建了一個事件轉換圖g,來幫助模型進行更好的學習,對于窗口內的任意事件對(e1,ej),以a1,j←a1,j+1/j的方式更新在轉換圖上的邊權重,對于圖中的每一個事件節點,保留它top-k權重的連接邊,其中,k是一個超參數;

    16、其中,基于圖轉換關系的插入(gi),先隨機選取窗口wi中的[α·n]個索引[idx1,...,idx[α·n]],這里0≤α≤0是插入增強比例。然后,對于每一個索引對應的事件eidx,從轉換圖g獲取eidx的鄰居集合n(eidx)以及對應的邊權重(相關系數)p(eidx)。通過將邊權重p(eidx)作為概率值從候選集合n(eidx)進行采樣,可以得到在事件eidx前進行插入的增強事件e′idx,整個過程定義為:

    17、

    18、其中,基于圖轉換關系的替代(gs),先通過超參數0≤β≤0隨機采樣[β·n]個索引[idx1,...,idx[β·n]]。然后,獲取事件eidx的鄰居集合n(eidx)以及對應的邊權重(相關系數)p(eidx)。最后,通過從n(eidx)中采樣得到進行替換的增強事件e′idx,整個過程可以定義為:

    19、

    20、s6:將步驟s4和s5的增強操作整合組成集合使用時從中進行采樣,選擇一種具體的操作進行窗口的增強;

    21、s7:對于一個批次的訓練窗口數據從集合隨機采樣兩種數據增強操作來對事件窗口進行增強,以此生成2b份增強樣本,其定義為:

    22、{w′1,w′2,...,w′2i-1,w′2i,...,w′2b-1,w′2b}(公式9),

    23、其中i∈[1,2,...,b]。通過批次內負樣本策略,從同一個樣本wi中增強得到的窗口對(w′2i-1,w′2i)將被視為一對正樣本,對比損失將最大化它們的一致性,而它們與批次中的其他樣本則被視為負樣本關系,距離將被拉遠。根據公式2,可將窗口對(w′2i-1,w′2i)編碼為表征(h′2i-1,h′2i),以此進行對比損失的計算:

    24、

    25、其中,1j≠2i-1代表指示函數,當表達式i≠2i-1成立時為1,否則為0;

    26、s8:采用多任務學習的方式對模型進行聯合優化,多任務訓練損失如下所示:

    27、

    28、其中λ表示對比損失權重。

    29、優選的,本文檔來自技高網...

    【技術保護點】

    1.基于魯棒增強學習的在線人類活動識別方法,其特征在于,包括以下步驟:

    2.根據權利要求1所述的基于魯棒增強學習的在線人類活動識別方法,其特征在于:所述S1中,根據時間戳順序,在傳感器數據流上移動一系列滑動窗口來生成全部數據W=[…,wi,…],其中表示第i個滑動窗口,e=(t,s)表示單事件數據,n表示窗口大小。給定輸入窗口數據wi、預測模型Pθ,在線人類活動識別問題可以被定義為:

    3.根據權利要求1所述的基于魯棒增強學習的在線人類活動識別方法,其特征在于:所述S3中,具體包括:

    4.根據權利要求1所述的基于魯棒增強學習的在線人類活動識別方法,其特征在于:所述步驟S3中,所使用的編碼器類型包括CNN、LSTM、Transformer、MLP等。

    5.根據權利要求1所述的基于魯棒增強學習的在線人類活動識別方法,其特征在于:所述步驟S5中,對于基于圖轉換關系的插入(GI),向窗口插入屬于其他活動的事件,可增加窗口內容的多樣性,并模擬可能出現的混合行為或活動過渡階段,使得模型能更好地應對實際應用場景中的復雜情況,如快速切換或同時進行多種活動。

    6.根據權利要求1所述的基于魯棒增強學習的在線人類活動識別方法,其特征在于:所述步驟S5中,對于基于圖轉換關系的替代(GS),替換窗口內的部分事件,在增加窗口內容多樣性、模擬用戶混合行為的同時,也去除了部分的原有信息,減少了模型過度依賴特定訓練樣本特征的可能性,使得模型更好地應對現實中可能出現的各種變化和干擾因素。

    7.根據權利要求1-6任一項所述的基于魯棒增強學習的在線人類活動識別方法,其特征在于,包括以下步驟:

    ...

    【技術特征摘要】

    1.基于魯棒增強學習的在線人類活動識別方法,其特征在于,包括以下步驟:

    2.根據權利要求1所述的基于魯棒增強學習的在線人類活動識別方法,其特征在于:所述s1中,根據時間戳順序,在傳感器數據流上移動一系列滑動窗口來生成全部數據w=[…,wi,…],其中表示第i個滑動窗口,e=(t,s)表示單事件數據,n表示窗口大小。給定輸入窗口數據wi、預測模型pθ,在線人類活動識別問題可以被定義為:

    3.根據權利要求1所述的基于魯棒增強學習的在線人類活動識別方法,其特征在于:所述s3中,具體包括:

    4.根據權利要求1所述的基于魯棒增強學習的在線人類活動識別方法,其特征在于:所述步驟s3中,所使用的編碼器類型包括cnn、lstm、transformer、mlp等。

    5.根據權利要求1...

    【專利技術屬性】
    技術研發人員:嚴素蓉史成龍郭瑞琳
    申請(專利權)人:浙江財經大學
    類型:發明
    國別省市:

    網友詢問留言 已有0條評論
    • 還沒有人留言評論。發表了對其他瀏覽者有用的留言會獲得科技券。

    1
    主站蜘蛛池模板: 无码日韩人妻av一区免费| 中字无码av电影在线观看网站| 西西大胆无码视频免费| 国产精品亚洲а∨无码播放不卡 | 国产成人无码午夜福利软件| 曰批全过程免费视频在线观看无码| 无码夫の前で人妻を犯す中字| 免费人妻av无码专区| AV无码免费永久在线观看| 天堂Aⅴ无码一区二区三区| 无码精品尤物一区二区三区| 亚洲一区爱区精品无码| 成人免费无码大片a毛片| 亚洲av无码不卡| 免费看无码特级毛片| 无码不卡中文字幕av| 无码人妻丝袜在线视频| 性无码免费一区二区三区在线| 一本大道无码人妻精品专区| 亚洲日韩国产二区无码| 精品视频无码一区二区三区| 亚洲日韩av无码| 国产精品无码AV一区二区三区| 特级无码毛片免费视频| 韩国无码AV片在线观看网站| 亚洲AV无码成人网站在线观看| 久久久久亚洲AV无码麻豆| 亚洲日韩精品一区二区三区无码 | 无码AV波多野结衣久久| 国产在线拍揄自揄拍无码| 中文字幕无码免费久久9一区9| 国产爆乳无码视频在线观看3 | 无码h黄肉3d动漫在线观看| 亚洲AV无码乱码在线观看代蜜桃 | 国产日韩AV免费无码一区二区| av无码a在线观看| 国产在线无码精品电影网| 国产精品VA在线观看无码不卡| 国产精品无码日韩欧| 久久久久久亚洲Av无码精品专口| 亚洲中文无码av永久|