System.ArgumentOutOfRangeException: 索引和長度必須引用該字符串內的位置。 參數名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 亚洲av无码兔费综合,最新亚洲人成无码网站,在线a亚洲v天堂网2019无码
  • 
    <ul id="o6k0g"></ul>
    <ul id="o6k0g"></ul>
    當前位置: 首頁 > 專利查詢>重慶大學專利>正文

    一種基于事件和脈沖神經網絡的語義分割方法技術

    技術編號:41126607 閱讀:17 留言:0更新日期:2024-04-30 17:54
    本發明專利技術公開了一種基于事件和脈沖神經網絡的語義分割方法,屬于計算機視覺技術領域,包括如下步驟:步驟S1:將異步事件數據進行預處理;步驟S2:將預處理后的事件輸入邊界感知的脈沖編碼器;步驟S3:將經編碼器提取的高維語義特征輸入脈沖解碼器,最終進行語義預測。本發明專利技術的顯著效果是提供了一種基于事件和脈沖神經網絡的語義分割方法,不依賴額外的視覺信息;并在時間和空間兩個維度上計算和傳遞事件數據;并具有脈沖神經網絡的計算效率高、能耗低的特點。

    【技術實現步驟摘要】

    本專利技術屬于計算機視覺,提供一種基于事件和脈沖神經網絡的語義分割方法。


    技術介紹

    1、語義分割旨在為圖像中的每個像素分配一個語義標簽,有助于理解和分析環境,在計算機視覺領域中具有重要意義。它在自動駕駛、機器人感知以及視頻監控等領域具有廣泛應用。全卷積網絡的提出為語義分割任務奠定了基本范式?;谠摲妒剑S多文獻提出了更高質量的方法。然而,這些研究主要聚焦于由基于幀的相機所捕獲的圖像。盡管基于幀的相機足以滿足日常使用的需求,但它們在應對實時需求、光照條件惡劣以及準確識別移動物體等方面存在現實困難。

    2、近年來,由于其獨特的仿生特性,事件相機引起了越來越多的關注。與傳統相機以固定速率捕捉圖像不同,事件相機異步地測量每個像素的亮度變化,并在亮度變化超過預定義閾值時生成事件。事件相機相對于傳統相機有四個優勢:更高的時間分辨率、更低的時間延遲、更高的動態范圍以及更低的能耗。因此,基于事件的語義分割任務具有現實研究意義及應用前景。針對該研究,一些工作已經取得到初步進展。ev-segnet是首個將事件數據用于語義分割的工作。它提出了一個創新的事件表征方法6-channel并介紹了如何自動生成事件的語義標簽。evdistill通過知識蒸餾從一個經過大規模標記的圖像數據(源模態)訓練的教師網絡中學習,來處理未標記和不成對的事件數據(目標模態)。最近提出的ess,通過無監督領域自適應的方式,將語義分割任務直接從現有的已標記圖像數據集轉移到未標記的事件數據上。然而,這些工作仍然存在一些缺點:需要額外的圖像信息輔助、未充分利用事件數據的特性、網絡復雜度高和能耗高等問題。因此,有必要提出一種不借助額外視覺信息、充分挖掘事件數據特性、準確高效、能耗低的基于事件的語義分割方法。

    3、現有的語義分割法存在下列一種或多種問題:1.需要通過知識蒸餾和遷移學習等技術從額外的視覺信息(灰度圖像或rgb圖像)中獲取紋理細節,以彌補事件數據的稀疏特征。2.依賴于傳統的人工神經網絡,這些網絡只能在空間維度上傳遞特征,丟棄了事件的時間維度信息。3.能耗高,這限制了其在資源和能源有限的平臺上的部署。


    技術實現思路

    1、有鑒于此,本專利技術的目的在于提供一種基于事件和脈沖神經網絡的語義分割方法,旨在解決現有的語義分割法需要依賴額外的視覺信息、丟棄了事件的時間維度信息、能耗高的問題。

    2、為達到上述目的,本專利技術提供了如下技術方案:一種基于事件和脈沖神經網絡的語義分割方法,包括如下步驟:

    3、步驟s1:將異步事件數據進行預處理;

    4、步驟s2:將預處理后的事件輸入邊界感知的脈沖編碼器;

    5、步驟s3:將經編碼器提取的高維語義特征輸入脈沖解碼器,最終進行語義預測。

    6、進一步地,步驟s1包括:在事件預處理階段,異步事件流ei={(xi,yi,ti,pi)}i∈w首先進行體素網格編碼,接著進行適應時間維度的調整,其中,(xi,yi)是事件的像素坐標,ti是事件的時間戳,pi是事件的極性,pi=±1;

    7、最終表示為事件序列其中w是預設的時間窗口,t是時間步,e∈rx×y×c,x×y和c分別是空間分辨率和通道數。

    8、進一步地,步驟s2包括:將經預處理的事件序列e輸入到脈沖編碼器進行多維度的特征提取,其中,脈沖編碼器包含三個分支:語義細節分支、上下文聚合分支和邊界警醒分支,將上下文聚合分支通過加法融入到語義細節分支,實現從高維視角指導低維特征學習;同時,脈沖編碼器結合脈沖神經元,將基本計算操作由耗能的浮點矩陣乘轉換為加法,并在時間和空間兩個維度上計算和傳遞事件數據。

    9、進一步地,步驟s3包括:將經編碼器提取的高維語義特征輸入脈沖解碼器;脈沖解碼器首先經加操作融合三個分支的特征,然后通過上采樣恢復至原始大小,最后通過預測頭進行語義預測;脈沖解碼器結合了脈沖神經元。

    10、本專利技術的顯著效果是:

    11、本專利技術的一種基于事件和脈沖神經網絡的語義分割方法,不依賴額外的視覺信息;并在時間和空間兩個維度上計算和傳遞事件數據;并具有脈沖神經網絡的計算效率高、準確率高、能耗低的特點。

    12、本專利技術的其他優點、目標和特征在某種程度上將在隨后的說明書中進行闡述,并且在某種程度上,基于對下文的考察研究對本領域技術人員而言將是顯而易見的,或者可以從本專利技術的實踐中得到教導。本專利技術的目標和其他優點可以通過下面的說明書來實現和獲得。

    本文檔來自技高網...

    【技術保護點】

    1.一種基于事件和脈沖神經網絡的語義分割方法,其特征在于,包括如下步驟:

    2.根據權利要求1所述的一種基于事件和脈沖神經網絡的語義分割方法,其特征在于,

    3.根據權利要求2所述的一種基于事件和脈沖神經網絡的語義分割方法,其特征在于,

    4.根據權利要求3所述的一種基于事件和脈沖神經網絡的語義分割方法,其特征在于,

    5.根據權利要求2所述的一種基于事件和脈沖神經網絡的語義分割方法,其特征在于,

    6.根據權利要求4所述的一種基于事件和脈沖神經網絡的語義分割方法,其特征在于,

    7.根據權利要求6所述的一種基于事件和脈沖神經網絡的語義分割方法,其特征在于,

    8.根據權利要求7所述的一種基于事件和脈沖神經網絡的語義分割方法,其特征在于,

    9.根據權利要求8所述的一種基于事件和脈沖神經網絡的語義分割方法,其特征在于,

    【技術特征摘要】

    1.一種基于事件和脈沖神經網絡的語義分割方法,其特征在于,包括如下步驟:

    2.根據權利要求1所述的一種基于事件和脈沖神經網絡的語義分割方法,其特征在于,

    3.根據權利要求2所述的一種基于事件和脈沖神經網絡的語義分割方法,其特征在于,

    4.根據權利要求3所述的一種基于事件和脈沖神經網絡的語義分割方法,其特征在于,

    5.根據權利要求2所述的一種基于事件和脈沖...

    【專利技術屬性】
    技術研發人員:古富強,朱夏欣,龍憲磊郭方明,陳超
    申請(專利權)人:重慶大學,
    類型:發明
    國別省市:

    網友詢問留言 已有0條評論
    • 還沒有人留言評論。發表了對其他瀏覽者有用的留言會獲得科技券。

    1
    主站蜘蛛池模板: 无码人妻av一区二区三区蜜臀| 久久AV高潮AV无码AV| 国产亚洲精品无码拍拍拍色欲| 国产乱子伦精品无码专区| 国产在线观看无码免费视频 | 无码一区二区三区视频| 无码粉嫩小泬无套在线观看| 无码不卡亚洲成?人片| 精品亚洲AV无码一区二区三区| 四虎成人精品国产永久免费无码| 少妇无码一区二区三区免费| 在线看片无码永久免费aⅴ| 亚洲Av永久无码精品三区在线 | 久久精品国产亚洲AV无码偷窥 | 久久久久亚洲av无码专区导航| 免费无码又爽又刺激高潮的视频| 无码人妻一区二区三区在线视频| 人妻无码中文字幕免费视频蜜桃| 无码八A片人妻少妇久久| 无码精品人妻一区二区三区免费看 | 国产成人无码精品久久久露脸| 亚洲AV无码专区在线亚| 国产激情无码视频在线播放性色| 国产免费久久久久久无码| 日韩AV无码精品一二三区 | 国产精品无码久久综合网| 久久国产亚洲精品无码| 无码人妻精品中文字幕| 国产精品无码A∨精品影院 | 日韩精品人妻系列无码专区免费| 中文字幕精品无码亚洲字| 国产精品无码MV在线观看| 国产精品成人99一区无码| 免费无遮挡无码视频在线观看| 国产精品亚洲专区无码牛牛| 成人免费无码大片a毛片软件 | V一区无码内射国产| 亚洲午夜无码AV毛片久久| 超清纯白嫩大学生无码网站| 久久青青草原亚洲av无码| 中文无码日韩欧免费视频|