• 
    <ul id="o6k0g"></ul>
    <ul id="o6k0g"></ul>

    一種基于聯(lián)邦遷移學習的檢測方法、系統(tǒng)、設備及介質技術方案

    技術編號:35943730 閱讀:45 留言:0更新日期:2022-12-14 10:33
    本發(fā)明專利技術公開了一種基于聯(lián)邦遷移學習的檢測方法、系統(tǒng)、設備及介質,基于追蹤加速的安全作業(yè)視頻實時檢測模型作為基礎模型,在數(shù)據(jù)不出作業(yè)現(xiàn)場本地的前提下,通過凍結批歸一化層參數(shù)和共享其他層參數(shù)的聯(lián)邦遷移技術為帶標簽的源域電力公司的作業(yè)現(xiàn)場提供實時精準的個性化安全作業(yè)檢測。通過基于源域全局模型的初始模型選擇、基于聯(lián)邦域對抗網(wǎng)絡的偽標簽預測和模型自訓練為不帶標簽的目標域電力公司的作業(yè)現(xiàn)場提供實時精準的安全作業(yè)視頻實時檢測。本發(fā)明專利技術表現(xiàn)出良好的收斂速度和穩(wěn)定性,滿足不同源域電力公司個性化需求,同時保持了較好的檢測精度和速度。與常用域自適應算法相比,本發(fā)明專利技術具有最佳精度和最低延遲,顯著提升了域自適應能力。了域自適應能力。了域自適應能力。

    【技術實現(xiàn)步驟摘要】
    一種基于聯(lián)邦遷移學習的檢測方法、系統(tǒng)、設備及介質


    [0001]本專利技術屬于工業(yè)智能
    ,涉及一種基于聯(lián)邦遷移學習的檢測方法、系統(tǒng)、設備及介質。

    技術介紹

    [0002]安全是電業(yè)建設和發(fā)展的永恒主題,近年來,隨著經(jīng)濟和社會的快速發(fā)展,電力規(guī)模日益擴大,現(xiàn)場作業(yè)出現(xiàn)了點多、面廣、戰(zhàn)線長、位置偏遠、作業(yè)人員素質參差不齊、流動性大的現(xiàn)象,這極大增加了作業(yè)現(xiàn)場安全管控的難度,導致人身傷亡事故時有發(fā)生。
    [0003]目前,常用的將視頻或圖像傳輸至云端監(jiān)控中心進行安全行為檢測的方式主要面臨著數(shù)據(jù)安全性低、模型精度低、檢測效率低等問題。首先,工作人員的面部數(shù)據(jù)是敏感和隱私的,作業(yè)現(xiàn)場的監(jiān)控視頻數(shù)據(jù)直接云中聚合的方式不再可取,但本地數(shù)據(jù)不足單獨訓練模型會導致模型性能不理想。如何在數(shù)據(jù)不出作業(yè)現(xiàn)場本地的前提下,為作業(yè)現(xiàn)場提供精準的安全作業(yè)檢測模型是一個重大挑戰(zhàn)。其次,不同電力公司的安全保護裝備存在差異,例如安全帽的顏色,安全手套的材質,掛牌的形狀等存在不同。傳統(tǒng)全局模型共享的聯(lián)邦模式已無法滿足每個電力公司對安全作業(yè)檢測的個性化需求。此外,視頻數(shù)據(jù)的標注費時費力,針對樣本沒有標簽的新公司,如何將樣本帶標簽的電力公司(源域)的知識賦能至新公司(目標域),實現(xiàn)目標域的安全作業(yè)精準檢測也是一個重要挑戰(zhàn)。最后,工作人員的作業(yè)行為是否符合規(guī)范直接影響人身安全,當前基于純云架構的檢測方式導致檢測延遲大大提高。在聯(lián)邦遷移學習框架下如何降低安全作業(yè)檢測的響應延遲,從而滿足應用的實時性需求也是亟待解決的。因此,面向電力戶外人員安全作業(yè)視頻實時檢測的聯(lián)邦遷移學習研究是必要的。

    技術實現(xiàn)思路

    [0004]本專利技術的目的在于解決現(xiàn)有技術中的問題,提供一種基于聯(lián)邦遷移學習的檢測方法、系統(tǒng)、設備及介質,本專利技術以聯(lián)邦遷移學習的方式,在數(shù)據(jù)不出作業(yè)現(xiàn)場本地的情況下,同時為帶標簽的源域和不帶標簽的目標域電力公司的作業(yè)現(xiàn)場提供實時、精準、個性化的安全作業(yè)視頻檢測服務。
    [0005]為達到上述目的,本專利技術采用以下技術方案予以實現(xiàn):
    [0006]第一方面,本專利技術提供一種基于聯(lián)邦遷移學習的檢測方法,包括以下步驟:
    [0007]根據(jù)源域的本地標簽數(shù)據(jù),訓練輕量級的CNN檢測模型,利用聯(lián)邦聚合方法聚合CNN檢測模型的參數(shù),得到本地模型;
    [0008]采用聯(lián)邦遷移學習的個性化模型訓練方法,對本地模型進行處理,得到源域的個性化檢測模型;
    [0009]對源域的個性化檢測模型的參數(shù)進行平均聚合,得到源域全局模型,將源域全局模型作為目標域的初始模型;
    [0010]利用聯(lián)邦對抗網(wǎng)絡為目標域訓練偽標簽預測器;
    [0011]利用多個源域的個性化檢測模型進行投票,得到偽標簽預測器的預測結果;初始模型利用預測結果和目標域不帶標簽的數(shù)據(jù)進行自訓練,得到目標域最終檢測模型;
    [0012]采用固定的關鍵幀間隔方法從源域和目標域的實時視頻幀序列中選擇關鍵幀;將關鍵幀輸入源域的個性化檢測模型和目標域的最終檢測模型得到檢測結果,并將檢測結果發(fā)送至追蹤模塊作為追蹤模板;
    [0013]將非關鍵幀輸入已完成關鍵幀檢測結果更新的輕量化的追蹤模塊,利用追蹤模板對非關鍵幀中的目標進行追蹤檢測,得到當前非關鍵幀中檢測對象的坐標,并繼承關鍵幀的分類結果。
    [0014]第二方面,本專利技術提供一種基于聯(lián)邦遷移學習的檢測系統(tǒng),包括:
    [0015]第一計算模塊,所述第一計算模塊用于根據(jù)源域的本地標簽數(shù)據(jù),訓練輕量級的CNN檢測模型,利用聯(lián)邦聚合方法聚合CNN檢測模型的參數(shù),得到本地模型;
    [0016]第二計算模塊,所述第二計算模塊用于采用聯(lián)邦遷移學習的個性化模型訓練方法,對本地模型進行處理,得到源域的個性化檢測模型;
    [0017]第三計算模塊,所述第三計算模塊用于對源域的個性化檢測模型的參數(shù)進行平均聚合,得到源域全局模型,將源域全局模型作為目標域的初始模型;
    [0018]第一訓練模塊,所述第一訓練模塊用于利用聯(lián)邦對抗網(wǎng)絡為目標域訓練偽標簽預測器;
    [0019]第二訓練模塊,所述第二訓練模塊用于利用多個源域的個性化檢測模型進行投票,得到偽標簽預測器的預測結果;初始模型利用預測結果和目標域不帶標簽的數(shù)據(jù)進行自訓練,得到目標域最終檢測模型;
    [0020]關鍵幀選取模塊,所述關鍵幀選取模塊用于采用固定的關鍵幀間隔方法從源域和目標域的實時視頻幀序列中選擇關鍵幀;將關鍵幀輸入源域的個性化檢測模型和目標域的最終檢測模型得到檢測結果,并將檢測結果發(fā)送至追蹤模塊作為追蹤模板;
    [0021]追蹤檢測模塊,所述追蹤檢測模塊用于將非關鍵幀輸入已完成關鍵幀檢測結果更新的輕量化的追蹤模塊,利用追蹤模板對非關鍵幀中的目標進行追蹤檢測,得到當前非關鍵幀中檢測對象的坐標,并繼承關鍵幀的分類結果。
    [0022]第三方面,本專利技術提供一種計算機設備,包括存儲器、處理器以及存儲在所述存儲器中并可在所述處理器上運行的計算機程序,所述處理器執(zhí)行所述計算機程序時實現(xiàn)如上述方法的步驟。
    [0023]第四方面,本專利技術提供一種計算機可讀存儲介質,所述計算機可讀存儲介質存儲有計算機程序,所述計算機程序被處理器執(zhí)行時實現(xiàn)如上述方法的步驟。
    [0024]與現(xiàn)有技術相比,本專利技術具有以下有益效果:
    [0025]本專利技術通過聯(lián)邦遷移學習技術及基于聯(lián)邦深度域對抗網(wǎng)絡模型,在數(shù)據(jù)不出作業(yè)現(xiàn)場本地的前提下,為帶標簽的源域電力公司和不帶標簽的目標域電力公司提供個性化、高精度的安全作業(yè)檢測模型。同時,采用目標檢測和追蹤結合的快速視頻目標檢測方法,加快安全作業(yè)視頻檢測速度,通過改變關鍵幀間隔來進行FTLPower的精度和推理延遲的權衡,為各電力公司提供實時視頻檢測服務。
    [0026]在真實視頻數(shù)據(jù)集上的實驗結果表明,與常用的聯(lián)邦學習算法相比,F(xiàn)TLPower表現(xiàn)出良好的收斂速度和穩(wěn)定性,滿足不同源域電力公司個性化需求,同時保持了較好的檢
    測精度和速度。與常用域自適應算法相比,F(xiàn)TLPower具有最佳精度和最低延遲,域自適應能力強。
    [0027]進一步的,本專利技術在源域建立了公司級和全局級兩層聯(lián)邦框架,通過凍結批歸一化層參數(shù)和共享其他層參數(shù)的聯(lián)邦遷移學習技術進行訓練,在數(shù)據(jù)不出作業(yè)現(xiàn)場本地地前提下,為各源域公司提供個性化、高精度模型,同時為目標域生成初始模型庫。
    [0028]進一步的,本專利技術采用基于偽標簽和本地樣本的模型自訓練方法進行目標域檢測模型訓練,在降低應用響應延遲的同時,進一步學習目標域公司本地數(shù)據(jù)特征,以提高目標域模型預測精度。
    附圖說明
    [0029]為了更清楚的說明本專利技術實施例的技術方案,下面將對實施例中所需要使用的附圖作簡單地介紹,應當理解,以下附圖僅示出了本專利技術的某些實施例,因此不應被看作是對范圍的限定,對于本領域普通技術人員來講,在不付出創(chuàng)造性勞動的前提下,還可以根據(jù)這些附圖獲得其他相關的附圖。
    [0030]圖1為本專利技術方法的流程圖。
    [0031]圖2為本專利技術的系統(tǒng)結構示意圖。
    ...

    【技術保護點】

    【技術特征摘要】
    1.一種基于聯(lián)邦遷移學習的檢測方法,其特征在于,包括以下步驟:根據(jù)源域的本地標簽數(shù)據(jù),訓練輕量級的CNN檢測模型,利用聯(lián)邦聚合方法聚合CNN檢測模型的參數(shù),得到本地模型;采用聯(lián)邦遷移學習的個性化模型訓練方法,對本地模型進行處理,得到源域的個性化檢測模型;對源域的個性化檢測模型的參數(shù)進行平均聚合,得到源域全局模型,將源域全局模型作為目標域的初始模型;利用聯(lián)邦對抗網(wǎng)絡為目標域訓練偽標簽預測器;利用多個源域的個性化檢測模型進行投票,得到偽標簽預測器的預測結果;初始模型利用預測結果和目標域不帶標簽的數(shù)據(jù)進行自訓練,得到目標域最終檢測模型;采用固定的關鍵幀間隔方法從源域和目標域的實時視頻幀序列中選擇關鍵幀;將關鍵幀輸入源域的個性化檢測模型和目標域的最終檢測模型得到檢測結果,并將檢測結果發(fā)送至追蹤模塊作為追蹤模板;將非關鍵幀輸入已完成關鍵幀檢測結果更新的輕量化的追蹤模塊,利用追蹤模板對非關鍵幀中的目標進行追蹤檢測,得到當前非關鍵幀中檢測對象的坐標,并繼承關鍵幀的分類結果。2.根據(jù)權利要求1所述的基于聯(lián)邦遷移學習的檢測方法,其特征在于,所述輕量級的CNN檢測模型采用Mobilenetv2
    ?
    SSD。3.根據(jù)權利要求1所述的基于聯(lián)邦遷移學習的檢測方法,其特征在于,所述采用聯(lián)邦遷移學習的個性化模型訓練方法,對本地模型進行處理,得到源域的個性化檢測模型,包括:每次全局級聯(lián)邦通信,全局服務器采用FedBN算法,凍結批歸一化層參數(shù),其他參數(shù)進行平均聚合,得到源域的個性化檢測模型。4.根據(jù)權利要求1所述的基于聯(lián)邦遷移學習的檢測方法,其特征在于,所述利用聯(lián)邦對抗網(wǎng)絡為目標域訓練偽標簽預測器F2,包括:在聯(lián)邦對抗網(wǎng)絡中加入目標域樣本加權DCBR聯(lián)邦域對抗網(wǎng)絡模塊和類別感知目標模式匹配COPM聯(lián)邦域對抗網(wǎng)絡模塊,在源域和目標域的每個公司隨機選擇1個作業(yè)現(xiàn)場進行訓練,用于減少訓練時間;DCBR聯(lián)邦域對抗網(wǎng)絡模塊能夠動態(tài)地重新加權每個目標樣本,每個目標域樣本的權重為:其中,t為目標域標志,t1為第一個目標域樣本權重標志、t2第二個目標域樣本權重標志,z為目標域選定作業(yè)現(xiàn)場視頻數(shù)據(jù)中圖像幀數(shù),θ為權重參數(shù),為易于適應的樣本分配更大的權重,為樣本稀少的類別分配更大的權重;易于適應的樣本分配更大的權重如下:
    其中,K為源域模型檢測總類別數(shù),τ為閾值參數(shù),M為源域公司總個數(shù),i表示第i個源域公司,表示目標域選定作業(yè)現(xiàn)場的第z幀圖像利用第i個源域公司的檢測模型在第k類的預測值,且k={1,2,

    ,K},s為源域公司標志,表示目標域選定作業(yè)現(xiàn)場第z幀圖像樣本;l(a)是一個指示函數(shù),如果為真則為1,否則為0;表示多個源域檢測模型的投票結果;K

    為歸一化系數(shù),且為歸一化系數(shù),且表示在M個源域公司檢測模型中第k類預測值的均值,且樣本稀少的類別分配更大的權重如下:其中,e表示自然常數(shù),其值約為2.71828,表示目標域中該樣本所屬類別的樣本個數(shù),樣本所屬類別也由多個源域檢測器投票得到,n
    t
    表示目標域中總樣本數(shù);DCBR聯(lián)邦域對抗網(wǎng)絡模塊的總損失L
    dcbr
    為:其中,是源域第i個電力公司的對抗損失,是目標域的對抗損失;源域第i個電力公司的對抗損失為:其中,n
    s,i
    是源域第i個電力公司選定作業(yè)現(xiàn)場的視頻數(shù)據(jù)圖像總幀數(shù),D
    dcbr
    是images
    ?
    wise的域判別器;代表源域樣本的image
    ?
    wise特征;目標域的對抗損失為:其中,是目標域樣本的image
    ?
    wise特征;
    COPM聯(lián)邦域對抗網(wǎng)絡模塊能夠降低源域與目標域之間低級別特征的差異;COPM聯(lián)邦域對抗網(wǎng)絡模塊的總體損失L
    copm
    為:L
    copm
    =L
    la
    +L
    adv
    其中,L
    la
    是對象模式匹配損失,L
    adv
    為pixel
    ?
    wise的域判別器損失;對象模式匹配損失L
    la
    為:其中,H和W分別表示源域樣本pixel
    ?
    wise特征層的高和寬,f
    s,i
    和f
    t
    分別代表源域和目標域樣本的注意力圖;Φ(x,x

    )=‖x
    ?
    ...

    【專利技術屬性】
    技術研發(fā)人員:丁香楊樹森王藝蒙趙鵬趙聰李科學郭思言李亞男韓青
    申請(專利權)人:西安交通大學
    類型:發(fā)明
    國別省市:

    網(wǎng)友詢問留言 已有0條評論
    • 還沒有人留言評論。發(fā)表了對其他瀏覽者有用的留言會獲得科技券。

    1
    主站蜘蛛池模板: 免费看无码特级毛片| 色综合久久久无码网中文| 精品无码久久久久久久久| 免费无码又爽又刺激网站直播| 国产a级理论片无码老男人| 亚洲AV无码AV日韩AV网站| 亚洲中文字幕伊人久久无码| 蜜桃无码一区二区三区| 国产亚洲精久久久久久无码| 亚洲AV无码国产一区二区三区| 亚洲精品无码mv在线观看网站| 无码中文字幕色专区| 亚洲看片无码在线视频| 十八禁视频在线观看免费无码无遮挡骂过 | 日日摸夜夜爽无码毛片精选 | 未满十八18禁止免费无码网站| 无码喷水一区二区浪潮AV| 久热中文字幕无码视频| 成年免费a级毛片免费看无码| a级毛片无码免费真人| 久久精品中文字幕无码绿巨人 | 亚洲heyzo专区无码综合| 无码国产精品一区二区免费3p | 亚洲中文字幕无码av永久| 亚洲VA中文字幕无码一二三区| 亚洲AV无码一区二区三区国产| 国产成人无码AV片在线观看| 特级小箩利无码毛片| 精品无码人妻夜人多侵犯18| 久久午夜夜伦鲁鲁片免费无码| 无码人妻精品一区二区三区99不卡| 午夜无码性爽快影院6080| 亚洲中文字幕无码一去台湾| 少妇精品无码一区二区三区| 色爱无码AV综合区| 无码福利一区二区三区| 亚洲精品无码久久久久牙蜜区| 性饥渴少妇AV无码毛片| 国产精品无码专区在线播放| 免费无码专区毛片高潮喷水| 亚洲综合最新无码专区|