System.ArgumentOutOfRangeException: 索引和長度必須引用該字符串內的位置。 參數名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 国产精品无码久久av,a级毛片无码免费真人久久 ,亚洲精品中文字幕无码AV
  • 
    <ul id="o6k0g"></ul>
    <ul id="o6k0g"></ul>

    多無人機視覺協同的建筑場景識別方法及聯動系統技術方案

    技術編號:44097254 閱讀:27 留言:0更新日期:2025-01-21 12:30
    本發明專利技術公開了多無人機視覺協同的建筑場景識別方法及聯動系統;本發明專利技術涉及機器視覺技術領域;使用雙向Bi?GRU神經網絡模型作為Seq2Seq模型的編碼層。編碼層負責接收特征序列S,并通過雙向Bi?GRU的前向和后向傳遞,捕捉特征序列S中的上下文信息;注意力機制在解碼層在生成輸出序列S時,動態地關注編碼層中不同位置的信息,并輸出中間向量C;Seq2Seq模型天然支持輸入和輸出序列長度不等的情況,使得本發明專利技術的技術方案能夠靈活應對多無人機協同中軌跡長度不同的挑戰,提高了協同規劃的效果。結合Bi?GRU循環神經網絡和注意力機制,模型能夠綜合考慮無人機的飛行軌跡、建筑場景特征以及外部環境變化,生成更加合理、高效的飛行軌跡規劃方案。

    【技術實現步驟摘要】

    本專利技術涉及機器視覺,具體涉及基于uav(無人機)的協同建筑識別及軌跡規劃技術的方向,特別涉及多無人機視覺協同的建筑場景識別方法及聯動系統


    技術介紹

    1、基于神經網絡的多無人機協同建筑識別的軌跡規劃技術,結合了無人機技術、計算機視覺與深度學習領域的最新進展,旨在提高無人機在建筑識別任務中的效率和準確性。

    2、rnn(循環神經網絡)和lstm(長短期記憶網絡)作為處理序列數據的強大工具,在多無人機協同軌跡規劃中具有重要應用。例如如下文獻均公開了相關技術方案:

    3、[1]于洋,施國武,劉斌,等.基于全卷積神經網絡的無人機影像建筑物提取[j].水利水電技術,2020,51(7):31-38.

    4、[2]唐瓔,劉正軍,楊懿,等.基于特征增強和elu的神經網絡建筑物提取研究[j].地球信息科學學報,2021,23(4):692-709.

    5、[3]劉強,解加粉,陳建忠,等,基于卷積神經網絡的高分辨率遙感影像建筑物場景識別[j],測繪通報,2021(1):124-128.

    6、[4]郭文,張養.基于注意力增強全卷積神經網絡的高分衛星影像建筑物提取[j],國土資源遙感,2021,33(2):100-107.

    7、上述現有技術通過rnn或lstm通過引入循環結構,使得網絡能夠處理序列數據。在每個時間步,它們都會接收一個輸入并產生一個輸出,同時維護一個內部狀態以記憶過去的信息。這種機制使得rnn和lstm能夠捕捉序列中的長期依賴關系,但是由于rnn和lstm在每個時間步都會固定地接收輸入和產生輸出,這限制了它們處理不等長序列的能力。在多無人機協同軌跡規劃中,不同無人機的飛行軌跡長度不同,且受環境因素影響較大。傳統的rnn和lstm模型在處理這類問題時遇到困難,導致軌跡規劃不夠靈活或準確。

    8、為此,本專利技術提出多無人機視覺協同的建筑場景識別方法及聯動系統。


    技術實現思路

    1、有鑒于此,本專利技術希望提供多無人機視覺協同的建筑場景識別方法及聯動系統,以解決或緩解現有技術中存在的技術問題,即如何針對多無人機視覺協同的建筑場景識別場景中,對現有的神經網絡模型進行優化,以實現處理不等長序列的形式提高協同規劃效果及靈活性,并對此至少提供一種有益的選擇;本專利技術的技術方案是這樣實現的:

    2、第一方面,多無人機視覺協同的建筑場景識別方法:

    3、(一)概述:

    4、本專利技術旨在將seq2seq模型與雙向bi-gru循環神經網絡模型相結合,以解決多無人機視覺協同建筑場景識別中的關鍵技術問題。通過引入seq2seq模型,該方案能夠處理輸入和輸出序列不等長的情況,適應多無人機協同軌跡規劃的復雜需求。同時,利用雙向bi-gru作為編碼層和解碼層的內部神經元,有效緩解了傳統rnn模型在處理長序列數據時出現的梯度消失或爆炸問題,提高了模型處理長序列數據的能力。此外,通過引入注意力機制,該方案進一步增強了模型對關鍵信息的關注度,提高了軌跡規劃的準確性和靈活性。

    5、(二)技術方案:

    6、為實現上述技術目標,從多無人機系統中收集飛行數據,獲取到第i架無人機的飛行軌跡t(i)后,執行如下操作步驟;

    7、2.1步驟s1,數據預處理:

    8、將每個飛行軌跡t(i)規劃為特征序列s;其中s={s1,s2,...,st},其中t表示序列的長度。

    9、2.2步驟s2,激活seq-bi-gru神經網絡模型的編碼層:

    10、使用雙向bi-gru神經網絡模型作為seq2seq模型的編碼層。編碼層負責接收特征序列s,并通過雙向bi-gru的前向和后向傳遞,捕捉特征序列s中的上下文信息。

    11、雙向bi-gru神經網絡模型包含前向和后向兩個傳遞方向。

    12、2.2.1步驟s200,向前傳播:

    13、對于前向傳遞,隱藏狀態更新為:

    14、

    15、其中,st表示時刻t的輸入特征,表示前一時刻的隱藏狀態。

    16、2.2.2步驟s201,向后傳播:

    17、對于后向傳遞,隱藏狀態更新為:

    18、

    19、其中,st同樣表示時刻t的輸入特征,而表示后一時刻的隱藏狀態。

    20、2.2.3步驟s202,輸出:

    21、時刻t的編碼層輸出ht是由前向和后向的隱藏狀態拼接而成:

    22、h={h1,h2,...,ht};

    23、

    24、其中,[·;·]表示向量的拼接操作,h是一個包含所有時刻編碼信息的序列。

    25、2.3步驟s3,激活注意力機制:

    26、注意力機制在解碼層在生成輸出序列h時,動態地關注編碼層中不同位置的信息,并輸出中間向量c;

    27、注意力機制旨在計算一個權重分布αt,該分布反映了在生成當前輸出時,解碼層對編碼層各位置信息的關注程度。具體地,權重分布αt表示在解碼時刻t,對編碼層第i個位置信息的關注度:

    28、

    29、其中,et,i是一個對齊模型,用于評估解碼時刻t與編碼層第i個位置之間的匹配程度??赏ㄟ^一個小型神經網絡來計算:

    30、

    31、其中,va、wa和ua是可學習的參數,
    anh(\cdot)是雙曲正切激活函數。

    32、一旦計算出了權重分布αt,我們就可以用它來生成中間向量ct,該向量是編碼層所有位置信息的加權和:

    33、c={c1,c2,...,ct};

    34、

    35、其中,第t個中間向量ct包含了在生成當前輸出時,解碼層所關注的所有重要信息。

    36、最終,解碼層將結合前一時刻的隱藏狀態st-1和中間向量ct,或是再加上其他輸入(如上一時刻的輸出),來生成當前時刻的隱藏狀態st和輸出。

    37、2.4步驟s4,激活seq-bi-gru神經網絡模型的解碼層:

    38、將中間向量c輸入到解碼層中,解碼層基于bi-gru結構輸出的固定長度向量,并逐步生成輸出序列的每個元素且通過終止條件而終止,最終輸出規劃后的飛行軌跡的輸出序列s’。

    39、解碼層也采用bi-gru結構,并在每個解碼時刻t接收中間向量ct作為輸入。同時,解碼層還會接收前一時刻的隱藏狀態st-1和其他輸入(如上一時刻的輸出)。

    40、2.4.1步驟s400,前向傳遞:

    41、解碼層的bi-gru結構負責根據輸入信息更新隱藏狀態,并生成當前時刻的輸出。具體地,對于前向傳遞,隱藏狀態更新為:

    42、

    43、其中,表示其他輸入信息。

    44、2.4.2步驟s401,后向傳遞:

    45、對于后向傳遞,由于解碼過程通常是單向的,后向的隱藏狀態實際上在標準的seq2seq解碼中并不適用。但在雙向解碼的變種中,可以類似地定義后向傳遞。因此在這里可主要關注本文檔來自技高網...

    【技術保護點】

    1.多無人機視覺協同的建筑場景識別方法,包括從多無人機系統中收集第i架無人機的飛行軌跡t(i),其特征在于,包括執行如下步驟:

    2.根據權利要求1所述的建筑場景識別方法,其特征在于:在所述S1中,S={s1,s2,...,sT},其中T表示序列的長度。

    3.根據權利要求2所述的建筑場景識別方法,其特征在于:在所述S2中,雙向Bi-GRU神經網絡模型包含前向和后向兩個傳遞方向:

    4.根據權利要求3所述的建筑場景識別方法,其特征在于:所述編碼層的輸出ht是由前向和后向的隱藏狀態拼接而成:

    5.根據權利要求2所述的建筑場景識別方法,其特征在于:所述S3中,所述動態旨在計算一個權重分布αt,該分布反映了在生成當前輸出時,解碼層對編碼層各位置信息的關注程度。

    6.根據權利要求5所述的建筑場景識別方法,其特征在于:所述權重分布αt的計算方法為:

    7.根據權利要求2所述的建筑場景識別方法,其特征在于:所述S4中,所述解碼層采用Bi-GRU結構,并在每個解碼時刻t接收中間向量ct作為輸入;同時,所述解碼層還接收前一時刻的隱藏狀態st-1和其他輸入:

    8.根據權利要求7所述的建筑場景識別方法,其特征在于:在所述S4中,不斷地重復解碼過程,直到滿足某個終止條件,所述解碼層會輸出一個規劃后的飛行軌跡的輸出序列:S'={y1,y2,...yT’};

    9.根據權利要求1、2、5或7所述的建筑場景識別方法,其特征在于:所述S5中,解碼函數為decode(·),它將輸出序列S′轉換為飛行軌跡t(i)′:

    10.多無人機視覺協同的建筑場景識別聯動系統,其特征在于:所述系統包括處理器、與所述處理器連接的存儲器,所述存儲器中存儲有程序指令,所述程序指令被所述處理器執行時,使所述處理器執行如權利要求1-9中任意一項所述的建筑場景識別方法,所述處理器連接有,

    ...

    【技術特征摘要】

    1.多無人機視覺協同的建筑場景識別方法,包括從多無人機系統中收集第i架無人機的飛行軌跡t(i),其特征在于,包括執行如下步驟:

    2.根據權利要求1所述的建筑場景識別方法,其特征在于:在所述s1中,s={s1,s2,...,st},其中t表示序列的長度。

    3.根據權利要求2所述的建筑場景識別方法,其特征在于:在所述s2中,雙向bi-gru神經網絡模型包含前向和后向兩個傳遞方向:

    4.根據權利要求3所述的建筑場景識別方法,其特征在于:所述編碼層的輸出ht是由前向和后向的隱藏狀態拼接而成:

    5.根據權利要求2所述的建筑場景識別方法,其特征在于:所述s3中,所述動態旨在計算一個權重分布αt,該分布反映了在生成當前輸出時,解碼層對編碼層各位置信息的關注程度。

    6.根據權利要求5所述的建筑場景識別方法,其特征在于:所述權重分布αt的計算方法為:

    7.根據權...

    【專利技術屬性】
    技術研發人員:王利莉
    申請(專利權)人:廣州科技職業技術大學,
    類型:發明
    國別省市:

    網友詢問留言 已有0條評論
    • 還沒有人留言評論。發表了對其他瀏覽者有用的留言會獲得科技券。

    1
    主站蜘蛛池模板: 亚洲最大av无码网址| 人妻丰满熟妇A v无码区不卡| 亚洲欧洲日产国码无码久久99| 深夜a级毛片免费无码| 国产成人无码一区二区三区| 久久精品无码一区二区三区免费| 国产AV无码专区亚洲AWWW| 国产免费无码AV片在线观看不卡| 中文字幕AV无码一区二区三区| 精品久久久久久无码人妻热| 日韩av无码中文字幕| 无码毛片一区二区三区中文字幕| 无码人妻精品一区二区三| 麻豆人妻少妇精品无码专区| 精品国产v无码大片在线观看| 国产精品无码久久久久| 亚洲av中文无码乱人伦在线观看 | 国产在线精品无码二区| 亚洲爆乳无码精品AAA片蜜桃| 国产精品无码久久久久久| 永久无码精品三区在线4| 内射精品无码中文字幕| 无码中文人妻在线一区| 无码国产精品一区二区免费 | 久久AV高清无码| 亚洲av福利无码无一区二区| 中文字幕乱码人妻无码久久 | 热の无码热の有码热の综合| 亚洲精品无码mⅴ在线观看| 无码日韩精品一区二区免费暖暖| 久久亚洲国产成人精品无码区| 成人麻豆日韩在无码视频| 2024你懂的网站无码内射| 精品无码一区二区三区在线| 人妻丝袜中文无码av影音先锋专区 | 国产在线精品无码二区| 亚洲乱码无码永久不卡在线| 在线播放无码高潮的视频| 国产精品无码a∨精品| 午夜无码A级毛片免费视频| 精品无码国产一区二区三区AV |