System.ArgumentOutOfRangeException: 索引和長度必須引用該字符串內的位置。 參數名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind()
【技術實現步驟摘要】
本專利技術涉及機器視覺,具體涉及基于uav(無人機)的協同建筑識別及軌跡規劃技術的方向,特別涉及多無人機視覺協同的建筑場景識別方法及聯動系統。
技術介紹
1、基于神經網絡的多無人機協同建筑識別的軌跡規劃技術,結合了無人機技術、計算機視覺與深度學習領域的最新進展,旨在提高無人機在建筑識別任務中的效率和準確性。
2、rnn(循環神經網絡)和lstm(長短期記憶網絡)作為處理序列數據的強大工具,在多無人機協同軌跡規劃中具有重要應用。例如如下文獻均公開了相關技術方案:
3、[1]于洋,施國武,劉斌,等.基于全卷積神經網絡的無人機影像建筑物提取[j].水利水電技術,2020,51(7):31-38.
4、[2]唐瓔,劉正軍,楊懿,等.基于特征增強和elu的神經網絡建筑物提取研究[j].地球信息科學學報,2021,23(4):692-709.
5、[3]劉強,解加粉,陳建忠,等,基于卷積神經網絡的高分辨率遙感影像建筑物場景識別[j],測繪通報,2021(1):124-128.
6、[4]郭文,張養.基于注意力增強全卷積神經網絡的高分衛星影像建筑物提取[j],國土資源遙感,2021,33(2):100-107.
7、上述現有技術通過rnn或lstm通過引入循環結構,使得網絡能夠處理序列數據。在每個時間步,它們都會接收一個輸入并產生一個輸出,同時維護一個內部狀態以記憶過去的信息。這種機制使得rnn和lstm能夠捕捉序列中的長期依賴關系,但是由于rnn和lstm在每個時間步都
8、為此,本專利技術提出多無人機視覺協同的建筑場景識別方法及聯動系統。
技術實現思路
1、有鑒于此,本專利技術希望提供多無人機視覺協同的建筑場景識別方法及聯動系統,以解決或緩解現有技術中存在的技術問題,即如何針對多無人機視覺協同的建筑場景識別場景中,對現有的神經網絡模型進行優化,以實現處理不等長序列的形式提高協同規劃效果及靈活性,并對此至少提供一種有益的選擇;本專利技術的技術方案是這樣實現的:
2、第一方面,多無人機視覺協同的建筑場景識別方法:
3、(一)概述:
4、本專利技術旨在將seq2seq模型與雙向bi-gru循環神經網絡模型相結合,以解決多無人機視覺協同建筑場景識別中的關鍵技術問題。通過引入seq2seq模型,該方案能夠處理輸入和輸出序列不等長的情況,適應多無人機協同軌跡規劃的復雜需求。同時,利用雙向bi-gru作為編碼層和解碼層的內部神經元,有效緩解了傳統rnn模型在處理長序列數據時出現的梯度消失或爆炸問題,提高了模型處理長序列數據的能力。此外,通過引入注意力機制,該方案進一步增強了模型對關鍵信息的關注度,提高了軌跡規劃的準確性和靈活性。
5、(二)技術方案:
6、為實現上述技術目標,從多無人機系統中收集飛行數據,獲取到第i架無人機的飛行軌跡t(i)后,執行如下操作步驟;
7、2.1步驟s1,數據預處理:
8、將每個飛行軌跡t(i)規劃為特征序列s;其中s={s1,s2,...,st},其中t表示序列的長度。
9、2.2步驟s2,激活seq-bi-gru神經網絡模型的編碼層:
10、使用雙向bi-gru神經網絡模型作為seq2seq模型的編碼層。編碼層負責接收特征序列s,并通過雙向bi-gru的前向和后向傳遞,捕捉特征序列s中的上下文信息。
11、雙向bi-gru神經網絡模型包含前向和后向兩個傳遞方向。
12、2.2.1步驟s200,向前傳播:
13、對于前向傳遞,隱藏狀態更新為:
14、
15、其中,st表示時刻t的輸入特征,表示前一時刻的隱藏狀態。
16、2.2.2步驟s201,向后傳播:
17、對于后向傳遞,隱藏狀態更新為:
18、
19、其中,st同樣表示時刻t的輸入特征,而表示后一時刻的隱藏狀態。
20、2.2.3步驟s202,輸出:
21、時刻t的編碼層輸出ht是由前向和后向的隱藏狀態拼接而成:
22、h={h1,h2,...,ht};
23、
24、其中,[·;·]表示向量的拼接操作,h是一個包含所有時刻編碼信息的序列。
25、2.3步驟s3,激活注意力機制:
26、注意力機制在解碼層在生成輸出序列h時,動態地關注編碼層中不同位置的信息,并輸出中間向量c;
27、注意力機制旨在計算一個權重分布αt,該分布反映了在生成當前輸出時,解碼層對編碼層各位置信息的關注程度。具體地,權重分布αt表示在解碼時刻t,對編碼層第i個位置信息的關注度:
28、
29、其中,et,i是一個對齊模型,用于評估解碼時刻t與編碼層第i個位置之間的匹配程度??赏ㄟ^一個小型神經網絡來計算:
30、
31、其中,va、wa和ua是可學習的參數,
anh(\cdot)是雙曲正切激活函數。
32、一旦計算出了權重分布αt,我們就可以用它來生成中間向量ct,該向量是編碼層所有位置信息的加權和:
33、c={c1,c2,...,ct};
34、
35、其中,第t個中間向量ct包含了在生成當前輸出時,解碼層所關注的所有重要信息。
36、最終,解碼層將結合前一時刻的隱藏狀態st-1和中間向量ct,或是再加上其他輸入(如上一時刻的輸出),來生成當前時刻的隱藏狀態st和輸出。
37、2.4步驟s4,激活seq-bi-gru神經網絡模型的解碼層:
38、將中間向量c輸入到解碼層中,解碼層基于bi-gru結構輸出的固定長度向量,并逐步生成輸出序列的每個元素且通過終止條件而終止,最終輸出規劃后的飛行軌跡的輸出序列s’。
39、解碼層也采用bi-gru結構,并在每個解碼時刻t接收中間向量ct作為輸入。同時,解碼層還會接收前一時刻的隱藏狀態st-1和其他輸入(如上一時刻的輸出)。
40、2.4.1步驟s400,前向傳遞:
41、解碼層的bi-gru結構負責根據輸入信息更新隱藏狀態,并生成當前時刻的輸出。具體地,對于前向傳遞,隱藏狀態更新為:
42、
43、其中,表示其他輸入信息。
44、2.4.2步驟s401,后向傳遞:
45、對于后向傳遞,由于解碼過程通常是單向的,后向的隱藏狀態實際上在標準的seq2seq解碼中并不適用。但在雙向解碼的變種中,可以類似地定義后向傳遞。因此在這里可主要關注本文檔來自技高網...
【技術保護點】
1.多無人機視覺協同的建筑場景識別方法,包括從多無人機系統中收集第i架無人機的飛行軌跡t(i),其特征在于,包括執行如下步驟:
2.根據權利要求1所述的建筑場景識別方法,其特征在于:在所述S1中,S={s1,s2,...,sT},其中T表示序列的長度。
3.根據權利要求2所述的建筑場景識別方法,其特征在于:在所述S2中,雙向Bi-GRU神經網絡模型包含前向和后向兩個傳遞方向:
4.根據權利要求3所述的建筑場景識別方法,其特征在于:所述編碼層的輸出ht是由前向和后向的隱藏狀態拼接而成:
5.根據權利要求2所述的建筑場景識別方法,其特征在于:所述S3中,所述動態旨在計算一個權重分布αt,該分布反映了在生成當前輸出時,解碼層對編碼層各位置信息的關注程度。
6.根據權利要求5所述的建筑場景識別方法,其特征在于:所述權重分布αt的計算方法為:
7.根據權利要求2所述的建筑場景識別方法,其特征在于:所述S4中,所述解碼層采用Bi-GRU結構,并在每個解碼時刻t接收中間向量ct作為輸入;同時,所述解碼層還接收前一時刻的隱藏
8.根據權利要求7所述的建筑場景識別方法,其特征在于:在所述S4中,不斷地重復解碼過程,直到滿足某個終止條件,所述解碼層會輸出一個規劃后的飛行軌跡的輸出序列:S'={y1,y2,...yT’};
9.根據權利要求1、2、5或7所述的建筑場景識別方法,其特征在于:所述S5中,解碼函數為decode(·),它將輸出序列S′轉換為飛行軌跡t(i)′:
10.多無人機視覺協同的建筑場景識別聯動系統,其特征在于:所述系統包括處理器、與所述處理器連接的存儲器,所述存儲器中存儲有程序指令,所述程序指令被所述處理器執行時,使所述處理器執行如權利要求1-9中任意一項所述的建筑場景識別方法,所述處理器連接有,
...【技術特征摘要】
1.多無人機視覺協同的建筑場景識別方法,包括從多無人機系統中收集第i架無人機的飛行軌跡t(i),其特征在于,包括執行如下步驟:
2.根據權利要求1所述的建筑場景識別方法,其特征在于:在所述s1中,s={s1,s2,...,st},其中t表示序列的長度。
3.根據權利要求2所述的建筑場景識別方法,其特征在于:在所述s2中,雙向bi-gru神經網絡模型包含前向和后向兩個傳遞方向:
4.根據權利要求3所述的建筑場景識別方法,其特征在于:所述編碼層的輸出ht是由前向和后向的隱藏狀態拼接而成:
5.根據權利要求2所述的建筑場景識別方法,其特征在于:所述s3中,所述動態旨在計算一個權重分布αt,該分布反映了在生成當前輸出時,解碼層對編碼層各位置信息的關注程度。
6.根據權利要求5所述的建筑場景識別方法,其特征在于:所述權重分布αt的計算方法為:
7.根據權...
【專利技術屬性】
技術研發人員:王利莉,
申請(專利權)人:廣州科技職業技術大學,
類型:發明
國別省市:
還沒有人留言評論。發表了對其他瀏覽者有用的留言會獲得科技券。