System.ArgumentOutOfRangeException: 索引和長度必須引用該字符串內(nèi)的位置。 參數(shù)名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 亚洲成无码人在线观看,日韩成人无码中文字幕,日韩精品无码视频一区二区蜜桃
  • 
    <ul id="o6k0g"></ul>
    <ul id="o6k0g"></ul>

    基于語義分割先驗的三維語義場景補全方法技術

    技術編號:44494125 閱讀:5 留言:0更新日期:2025-03-04 18:00
    本發(fā)明專利技術提出了一種基于語義分割先驗的三維語義場景補全模型,該模型結合深度學習方法,利用語義分割圖中蘊含的豐富語義信息,有效提升三維場景補全的精度。通過設計對齊語義分割特征引導的模型框架,該框架由體素生成分支和語義補充分支組成,能夠從不同信息源重建三維場景。實驗表明,該方法能夠顯著提高三維場景補全的精度,尤其在細粒度場景重建方面具有顯著優(yōu)勢。該模型在SemanticKITTI數(shù)據(jù)集上進行了驗證,生成了帶有語義標簽的三維體素表示,成功地實現(xiàn)了更為精準的三維語義場景補全。

    【技術實現(xiàn)步驟摘要】

    本專利技術提出基于語義分割先驗的三維語義場景補全模型,屬于圖像數(shù)據(jù)處理(g06t)及圖像增強(g06t5)領域。


    技術介紹

    1、隨著自動駕駛、虛擬現(xiàn)實等領域的興起,對于真實世界中三維場景的深入理解變得尤為重要。因此,研究者們逐漸將目光投向了三維場景理解,這也使之成為當下計算機視覺領域研究的一個新的焦點。然而基于純視覺的三維語義場景補全的研究面臨著一個關鍵挑戰(zhàn),即輸入信息的缺失。由于二維信息到三維信息存在維度提升,視覺數(shù)據(jù)難免受到遮擋、噪聲等環(huán)境因素的影響,同時存在部分區(qū)域無法被觀測到的情況,當前的純視覺方法在對三維場景進行準確的補全方面尚不能達到理想的效果。

    2、為了解決這個問題,出現(xiàn)了一系列三維語義場景補全的方法。最近深度神經(jīng)網(wǎng)絡的發(fā)展,許多非常有效的方法都被提出來。其中基于相機二維圖像的三維語義場景補全致力于從多個二維圖像推斷三維場景內(nèi)對象的幾何形狀和語義類別。sscnet(https://ieeexplore.ieee.org/document/8099511)率先在單個深度視圖中聯(lián)合預測體素(voxel)占用和語義類別。早期的三維語義場景補全研究集中于使用三維卷積網(wǎng)絡推斷小規(guī)模和均勻密集的室內(nèi)場景中的對象屬性。由于對上下文信息的需要,這類網(wǎng)絡通常使用u-net架構(https://lin?k.springer.com/chapter/10.1007/978-3-319-24574-4_28),即具有跳過連接的編碼器-解碼器結構。u-net結構的好處不僅在于提供上下文信息而且還可以提取有意義的粗糙場景表示,這在三維語義場景補全中用于輸出多尺度預測或用于實現(xiàn)從粗到細的特征細化(https://openaccess.thecvf.com/content_cvpr_2018/cameraready/2835.pdf)。然而三維卷積神經(jīng)網(wǎng)絡有兩個重要的局限性,即立方體增長的內(nèi)存需求以及由于卷積導致的稀疏輸入流形的膨脹。為了改善這兩種情況,sparseconvnet(https://ieeexplore.ieee.org/document/8579059)使用稀疏三維卷積,這種卷積能夠方便地對輸入幾何體進行操作,從而實現(xiàn)高網(wǎng)格分辨率的特征提取。ddrnet(https://openaccess.thecvf.com/content_cvpr_2019/html/li_rgbd_based_dimensional_decomposition_residual_network_for_3d_semantic_scene_cvpr_2019_paper.html)提出了一種用于三維卷積的維度分解殘差塊ddr,這種結構將原本的三維卷積替換為沿三個方向不同的一維卷積,解決了三維卷積的網(wǎng)絡參數(shù)以立方的形式增長的問題。aic-net(https://ieeexplore.ieee.org/document/9156985)提出了一種稱為各向異性卷積的新模塊,與僅限于固定三維感受野的標準三維卷積相比,這個模塊通過將三維卷積分解為三個連續(xù)的一維卷積并且動態(tài)自適應地確定每個一維卷積的卷積核大小,從而實現(xiàn)各項異性三維感受野。pcanet(https://ieeexplore.ieee.org/document/10007036)提出pcr塊,將傳統(tǒng)的三維卷積分解為三個連續(xù)的平面卷積來保持三維場景的平面特征。上述的三種結構一方面是減少了計算開銷,另一方面也融入了一個三維場景的不同方向存在差異的思想。

    3、除了使用三維卷積網(wǎng)絡以外,還有工作使用視圖-體積網(wǎng)絡、點網(wǎng)絡和混合網(wǎng)絡來實現(xiàn)三維語義場景補全任務。在視圖-體積網(wǎng)絡中,為了利用二維卷積神經(jīng)網(wǎng)絡的效率,一種常見的策略是將其與三維卷積神經(jīng)網(wǎng)絡結合使用,如文獻(https://www.ijcai.org/proceedings/2018/101)。具體來講,這些方法使用二維卷積編碼器從二維紋理和幾何輸入(rgb、深度等)中提取二維特征,然后將其提升到三維并由三維卷積處理。為了獲取更豐富的特征表示,另一種方案將三維輸入數(shù)據(jù)投影到二維中,然后用比三維對應結構輕量化得多的普通二維卷積進行處理。然后將得到的二維特征提升回三維,并使用三維卷積進行解碼。這種方案在計算和內(nèi)存占用方面具有更高的效率,但更適合室外場景,因為室外數(shù)據(jù)顯示出沿兩個軸(即縱向和橫向)的主要變化。

    4、semantickitti數(shù)據(jù)集(https://semantic-kitti.org/)是一個基于雷達序列的大規(guī)模語義場景理解數(shù)據(jù)集。semantickitti基于kitti視覺基準,并為里程表基準序列00-10的每次單獨掃描提供密集的注釋,這使得可以使用多個連續(xù)掃描進行語義場景解釋,如語義分割和語義場景補全。剩余的序列,即序列11-21,被用作測試集,顯示了各種具有挑戰(zhàn)性的交通狀況和環(huán)境類型。數(shù)據(jù)集官方不提供測試集的標簽,而是使用評估服務對提交的內(nèi)容進行評分并提供測試集結果,這使得測試的結果更加客觀準確。


    技術實現(xiàn)思路

    1、本專利技術的目的是基于深度學習的理論與方法,研究基于語義分割先驗的三維語義場景補全模型,能夠利用語義分割圖中包含的豐富語義先驗信息,同時提出對齊語義分割特征引導的模型框架,最后通過后融合的方式將對齊的語義特征合并到低分辨率場景特征中實現(xiàn)更細粒度的場景重建,從而有效的提升三維語義場景補全的性能。

    2、本專利技術設計了一種對齊語義分割特征引導的模型框架。該模型框架由體素生成分支和語義補充分支組成,利用不同的信息源重建三維場景。首先在體素生成分支中為大型對象建立基本的三維布局,然后使用語義分割圖中的可靠視覺特征來指導較小元素的重建和較大對象的細化。在補充分支中,本專利技術提出類對齊模塊以自適應地學習特定任務數(shù)據(jù)集中不同類別的重要性,而不需要額外的注釋或者類別映射,實驗表明,這種改進能夠有效地理解場景中不同尺度的對象,實現(xiàn)更加細粒度的三維場景重建。

    3、本專利技術采用上述基于語義分割先驗的三維語義場景補全模型,首先對semantickitti數(shù)據(jù)集中的輸入圖像以及點云真值標簽進行預處理,構建訓練數(shù)據(jù),然后訓練基于語義分割先驗的三維語義場景補全模型,最后通過該模型生成細粒度的場景重建結果,具體形式為帶有語義標簽的三維體素表示成的場景。

    4、本專利技術包括下列步驟:

    5、步驟1、數(shù)據(jù)準備:

    6、semantickitti數(shù)據(jù)集為里程表基準序列00-10的每次單獨掃描提供密集的注釋,這使得可以使用多個連續(xù)掃描進行語義場景解釋,如語義分割和語義場景補全。剩余的序列,即序列11-21,被用作測試集,顯示了各種具有挑戰(zhàn)性的交通狀況和環(huán)境類型。

    7、步驟2、訓練深度補全模型:

    8、構建用于三維語義場景補全模型,所述網(wǎng)絡模型分為兩個分支。1)第一部分為體素生成分支,將rgb圖像作為輸入。通過時序編碼器模塊和鳥瞰圖交叉融合模塊,該主分支有效地利用視覺圖像特征和深度特征來生成低分辨率場景表示。2)第二部分為語義補充分支,使用預訓練的語義分割模型本文檔來自技高網(wǎng)...

    【技術保護點】

    1.一種基于語義分割先驗的三維語義場景補全方法,包括下列步驟:

    2.根據(jù)權利要求1所述的方法,其中

    3.根據(jù)權利要求2所述的方法,其中

    【技術特征摘要】

    1.一種基于語義分割先驗的三維語義場景補全方法,包括下列步驟:

    2....

    【專利技術屬性】
    技術研發(fā)人員:童超王煜朱守泰邢震宇
    申請(專利權)人:北京航空航天大學
    類型:發(fā)明
    國別省市:

    網(wǎng)友詢問留言 已有0條評論
    • 還沒有人留言評論。發(fā)表了對其他瀏覽者有用的留言會獲得科技券。

    1
    主站蜘蛛池模板: 精品久久久久久无码人妻中文字幕 | 日韩乱码人妻无码系列中文字幕| 人妻中文字幕无码专区| 国产乱子伦精品无码码专区| 亚洲av永久无码制服河南实里| 无码人妻一区二区三区免费n鬼沢| 亚洲AV无码无限在线观看不卡 | 特级无码毛片免费视频| 国产丝袜无码一区二区三区视频| 久久亚洲AV无码精品色午夜麻豆 | 亚洲aⅴ无码专区在线观看| 亚洲免费日韩无码系列| 在线看片无码永久免费视频| 亚洲av无码国产精品色在线看不卡| 午夜福利av无码一区二区| 日韩精品人妻系列无码av东京| 无码人妻视频一区二区三区| 嫩草影院无码av| 亚洲AV无码一区二区大桥未久| 中文无码精品一区二区三区| 免费无码AV片在线观看软件| 精品一区二区三区无码免费视频| 亚洲熟妇无码另类久久久| 亚洲精品无码久久不卡| 精品无码国产AV一区二区三区| 国产拍拍拍无码视频免费| 麻豆亚洲AV永久无码精品久久| 亚洲AV无码久久| 国产V亚洲V天堂无码久久久| 国产品无码一区二区三区在线蜜桃| 少妇无码AV无码专区线| 中文字幕无码乱码人妻系列蜜桃| 久久久无码中文字幕久...| 久久久久久久久无码精品亚洲日韩| 好爽毛片一区二区三区四无码三飞| 91精品无码久久久久久五月天| 亚洲AV无码AV男人的天堂| 亚洲人成无码www久久久| heyzo专区无码综合| 国99精品无码一区二区三区| 亚洲精品中文字幕无码蜜桃|