• 
    <ul id="o6k0g"></ul>
    <ul id="o6k0g"></ul>

    基于消費(fèi)級(jí)攝像頭的魯棒實(shí)時(shí)三維重建方法技術(shù)

    技術(shù)編號(hào):14973468 閱讀:161 留言:0更新日期:2017-04-03 01:19
    基于消費(fèi)級(jí)攝像頭的魯棒實(shí)時(shí)三維重建方法,本發(fā)明專利技術(shù)涉及基于消費(fèi)級(jí)攝像頭的魯棒實(shí)時(shí)三維重建方法。本發(fā)明專利技術(shù)是要解決現(xiàn)有方法計(jì)算成本高,重建的模型不精確并且不完整的問題。一、在攝像頭移動(dòng)的過程中,基于攝像頭當(dāng)前的視頻幀作為輸入,估計(jì)每一視頻幀在場(chǎng)景坐標(biāo)系下的相機(jī)姿態(tài):二、在視頻幀中選擇最佳的關(guān)鍵幀用于深度估計(jì);三、采用快速魯棒的深度估計(jì)算法估計(jì)每一視頻幀的深度信息得到每一視頻幀的深度圖:四、將每一視頻幀的深度圖轉(zhuǎn)換為截?cái)喾?hào)距離場(chǎng),在體素上并行地執(zhí)行TSDF的加權(quán)平均,增量地融合每一視頻幀的深度圖,并通過Marching?cubes算法構(gòu)建三角網(wǎng)格表面。本發(fā)明專利技術(shù)應(yīng)用于圖像處理領(lǐng)域。

    【技術(shù)實(shí)現(xiàn)步驟摘要】

    本專利技術(shù)涉及基于消費(fèi)級(jí)攝像頭的魯棒實(shí)時(shí)三維重建方法
    技術(shù)介紹
    隨著手機(jī),數(shù)碼相機(jī)的普及,獲取高質(zhì)量的圖像越來越便捷,一個(gè)迫切的需求是利用這些圖片數(shù)據(jù)重建我們所生活的三維世界,包括:物體、場(chǎng)景甚至整個(gè)環(huán)境。已有的基于圖像的三維重建方法,所采用的工業(yè)相機(jī)設(shè)備價(jià)格昂貴,且計(jì)算成本較高,對(duì)于一個(gè)小場(chǎng)景的重建一般需要一臺(tái)高性能計(jì)算機(jī)幾個(gè)小時(shí)的處理時(shí)間。然而,傳感器噪聲,遮擋和光照變化經(jīng)常導(dǎo)致三維重建任務(wù)失敗,這些問題僅通過觀察圖像往往難以預(yù)測(cè)。由于這些問題,花費(fèi)幾個(gè)小時(shí)重建的模型往往是不精確的,不完整的,且包含瑕疵。在很多場(chǎng)合,幾乎不可能重新返回待重建場(chǎng)景重新捕獲圖像數(shù)據(jù)。即便可以對(duì)待重建場(chǎng)景反復(fù)的拍攝和重建,造成的計(jì)算負(fù)擔(dān)和工作量仍然是巨大的。因此,期望有一個(gè)重建方法能夠在拍攝過程中就實(shí)時(shí)的反饋重建結(jié)果的質(zhì)量,并幫助用戶評(píng)估重建質(zhì)量,規(guī)劃可提高重建精度和完整度的相機(jī)移動(dòng)軌跡。
    技術(shù)實(shí)現(xiàn)思路
    本專利技術(shù)是要解決現(xiàn)有方法計(jì)算成本高,重建的模型不精確并且不完整的問題,而提供了基于消費(fèi)級(jí)攝像頭的魯棒實(shí)時(shí)三維重建方法。基于消費(fèi)級(jí)攝像頭的魯棒實(shí)時(shí)三維重建方法,按以下步驟實(shí)現(xiàn):一、在攝像頭移動(dòng)的過程中,基于攝像頭當(dāng)前的視頻幀作為輸入,估計(jì)每一視頻幀在場(chǎng)景坐標(biāo)系下的相機(jī)姿態(tài):二、在視頻幀中選擇最佳的關(guān)鍵幀用于深度估計(jì);三、采用快速魯棒的深度估計(jì)算法估計(jì)每一視頻幀的深度信息得到每一視頻幀的深度圖:四、將每一視頻幀的深度圖轉(zhuǎn)化為截?cái)喾?hào)距離場(chǎng),并在體素上增量的融合,最后輸出三角網(wǎng)格表面,即完成了基于消費(fèi)級(jí)攝像頭的魯棒實(shí)時(shí)三維重建方法。專利技術(shù)效果:本專利技術(shù)技術(shù)方案提出一個(gè)實(shí)時(shí)、低成本的三維重建方法,可以實(shí)時(shí)地且高質(zhì)量地重建并可視化真實(shí)場(chǎng)景。如圖1所示,提出的方法使用低成本消費(fèi)級(jí)攝像頭的視頻作為輸入,如網(wǎng)絡(luò)攝像頭或是手機(jī)攝像頭。由于這些消費(fèi)級(jí)攝像頭廣泛用于日常生活,方法實(shí)際上可允許重建相當(dāng)廣泛的場(chǎng)景。三維重建的模型可以直接用于增強(qiáng)現(xiàn)實(shí),3D打印,計(jì)算機(jī)游戲等應(yīng)用,如圖2。在實(shí)驗(yàn)中,使用一枚視頻分辨率為640×360的網(wǎng)絡(luò)攝像頭,幀率為30Hz。算法在一臺(tái)配置為CPUi7,32GRAM,顯卡NVIDIATitianblack,6G顯存的臺(tái)式電腦上運(yùn)行。深度融合中體素的解析度為256×256×256。算法平均運(yùn)行速度是每秒5幀。研究?jī)?nèi)容主要包括了視頻幀相機(jī)姿態(tài)的實(shí)時(shí)估計(jì),基于置信度的魯棒深度估計(jì)算,以及基于GPU的深度融合。雖然基于消費(fèi)級(jí)攝像頭的實(shí)時(shí)三維重建非常有價(jià)值,提出的方法需要解決幾個(gè)挑戰(zhàn)問題:首先,相機(jī)在每一個(gè)視頻幀中的姿態(tài)是未知的;第二,消費(fèi)級(jí)相機(jī)的成像質(zhì)量比工業(yè)級(jí)相機(jī)要低很多;第三,弱紋理或無紋理區(qū)域廣泛存在,這些區(qū)域的三維重建的質(zhì)量和可靠性較差,比如人臉重建。本專利技術(shù)有效解決上述難題。(1)通過隨機(jī)策略初始化深度搜索范圍,深度估計(jì)算法具有尺度可擴(kuò)展性;(2)提出的深度估計(jì)算法對(duì)于弱紋理區(qū)域比較魯棒。算法為每一個(gè)深度估計(jì)一個(gè)置信度值,并基于高置信度區(qū)域構(gòu)建一個(gè)分段線性模型用于預(yù)測(cè)弱紋理區(qū)域的深度。(3)大多數(shù)重建方法使用稀疏采樣的關(guān)鍵幀進(jìn)行重建,提出的專利使用視頻的每一幀進(jìn)行模型的估計(jì),充分的利用了視頻圖像的冗余信息,能夠生成更稠密的重建,以及處理遮擋問題。(4)在深度融合階段,我們采用了基于GPU和體網(wǎng)格的融合,可以高效的抑制噪聲并重建復(fù)雜的場(chǎng)景結(jié)構(gòu)。通過對(duì)體數(shù)據(jù)進(jìn)行可視化,可以實(shí)時(shí)可視化重建過程。附圖說明圖1是提出的實(shí)時(shí)三維重建方法的概述圖;圖2是提出的重建方法在3D打印上的應(yīng)用實(shí)例圖;圖3是提出的單目相機(jī)三維重建的算法流程圖;圖4是深度傳播示意圖;圖5是基于置信度的深度調(diào)整;圖6是截?cái)喾?hào)距離場(chǎng)的圖示;圖7單目實(shí)時(shí)三維重建方法對(duì)靜態(tài)場(chǎng)景三維重建結(jié)果圖;其中,第一列和第三列是輸入的視頻的某一幀,第二列和第四列是可視化的三維重建結(jié)果;圖8是提出的單目相機(jī)三維重建方法對(duì)人臉的重建結(jié)果以及與LSD-SLAM算法的對(duì)比圖;其中,第一行,從左到右:輸入視頻的一幀,基于圖像間直接匹配的LSD-SLAM算法估計(jì)的深度圖,基于隨機(jī)初始化和成本傳播生成的深度圖,以及使用置信度調(diào)整后的深度圖;第二行,從左到右:基于圖像間直接匹配的LSD-SLAM的稀疏點(diǎn)云重建結(jié)果,不使用基于置信度的深度調(diào)整的稠密重建結(jié)果,使用所提出的基于置信度的深度調(diào)整的稠密重建結(jié)果;圖9是提出的單目相機(jī)三維重建方法對(duì)人臉的重建結(jié)果以及與LSD-SLAM算法的對(duì)比圖;其中,第一行,從左到右:輸入視頻的一幀,基于圖像間直接匹配的LSD-SLAM算法估計(jì)的深度圖,基于隨機(jī)初始化和成本傳播生成的深度圖,以及使用置信度調(diào)整后的深度圖;第二行,從左到右:基于圖像間直接匹配的LSD-SLAM的稀疏點(diǎn)云重建結(jié)果,不使用基于置信度的深度調(diào)整的稠密重建結(jié)果,使用所提出的基于置信度的深度調(diào)整的稠密重建結(jié)果;圖10是提出的單目相機(jī)三維重建方法對(duì)人臉的重建結(jié)果以及與LSD-SLAM算法的對(duì)比圖;第一行,從左到右:輸入視頻的一幀,基于圖像間直接匹配的LSD-SLAM算法估計(jì)的深度圖,基于隨機(jī)初始化和成本傳播生成的深度圖,以及使用置信度調(diào)整后的深度圖;第二行,從左到右:基于圖像間直接匹配的LSD-SLAM的稀疏點(diǎn)云重建結(jié)果,不使用基于置信度的深度調(diào)整的稠密重建結(jié)果,使用所提出的基于置信度的深度調(diào)整的稠密重建結(jié)果。具體實(shí)施方式具體實(shí)施方式一:結(jié)合圖1~圖10說明本實(shí)施方式,本實(shí)施方式的基于消費(fèi)級(jí)攝像頭的魯棒實(shí)時(shí)三維重建方法,按以下步驟實(shí)現(xiàn):一、在攝像頭移動(dòng)的過程中,基于攝像頭當(dāng)前的視頻幀作為輸入,估計(jì)每一視頻幀在場(chǎng)景坐標(biāo)系下的相機(jī)姿態(tài):二、在視頻幀中選擇最佳的關(guān)鍵幀用于深度估計(jì);三、采用快速魯棒的深度估計(jì)算法估計(jì)每一視頻幀的深度信息得到每一視頻幀的深度圖:四、將每一視頻幀的深度圖轉(zhuǎn)化為截?cái)喾?hào)距離場(chǎng),并在體素上增量的融合,最終初始三角網(wǎng)格表面,即完成了基于消費(fèi)級(jí)攝像頭的魯棒實(shí)時(shí)三維重建方法。具體實(shí)施方式二:本實(shí)施方式與具體實(shí)施方式一不同的是:所述步驟一具體為:(a)構(gòu)建一組關(guān)鍵幀集合在攝像頭移動(dòng)的過程中,依據(jù)時(shí)間距離和空間距離閾值從視頻幀中選取關(guān)鍵幀k,每一個(gè)關(guān)鍵幀對(duì)應(yīng)一個(gè)估計(jì)的相機(jī)姿態(tài),所有關(guān)鍵幀構(gòu)成關(guān)鍵幀集合(b)構(gòu)建三維圖三維圖中包含點(diǎn)云數(shù)據(jù)其中pi為點(diǎn)云數(shù)據(jù)中的某一三維點(diǎn),為的基,即中元素的數(shù)量,當(dāng)新的關(guān)鍵幀被加入關(guān)鍵幀集合時(shí),它與關(guān)鍵幀集合中其他關(guān)鍵幀執(zhí)行立體匹配,產(chǎn)生新的點(diǎn)云數(shù)據(jù)加入點(diǎn)云中本文檔來自技高網(wǎng)...

    【技術(shù)保護(hù)點(diǎn)】
    基于消費(fèi)級(jí)攝像頭的魯棒實(shí)時(shí)三維重建方法,其特征在于按以下步驟實(shí)現(xiàn):一、在攝像頭移動(dòng)的過程中,基于攝像頭當(dāng)前的視頻幀作為輸入,估計(jì)每一視頻幀在場(chǎng)景坐標(biāo)系下的相機(jī)姿態(tài):二、在視頻幀中選擇最佳的關(guān)鍵幀用于深度估計(jì);三、采用快速魯棒的深度估計(jì)算法估計(jì)每一視頻幀的深度信息得到每一視頻幀的深度圖:四、將每一視頻幀的深度圖轉(zhuǎn)化為截?cái)喾?hào)距離場(chǎng),并在體素上執(zhí)行增量的深度融合,最后輸出三角網(wǎng)格表面,即完成了基于消費(fèi)級(jí)攝像頭的魯棒實(shí)時(shí)三維重建方法。

    【技術(shù)特征摘要】
    1.基于消費(fèi)級(jí)攝像頭的魯棒實(shí)時(shí)三維重建方法,其特征在于按以下步驟實(shí)現(xiàn):
    一、在攝像頭移動(dòng)的過程中,基于攝像頭當(dāng)前的視頻幀作為輸入,估計(jì)每一視頻幀在場(chǎng)
    景坐標(biāo)系下的相機(jī)姿態(tài):
    二、在視頻幀中選擇最佳的關(guān)鍵幀用于深度估計(jì);
    三、采用快速魯棒的深度估計(jì)算法估計(jì)每一視頻幀的深度信息得到每一視頻幀的深度
    圖:
    四、將每一視頻幀的深度圖轉(zhuǎn)化為截?cái)喾?hào)距離場(chǎng),并在體素上執(zhí)行增量的深度融合,
    最后輸出三角網(wǎng)格表面,即完成了基于消費(fèi)級(jí)攝像頭的魯棒實(shí)時(shí)三維重建方法。
    2.根據(jù)權(quán)利要求1所述的基于消費(fèi)級(jí)攝像頭的魯棒實(shí)時(shí)三維重建方法,其特征在于所
    述步驟一具體為:
    (a)構(gòu)建一組關(guān)鍵幀集合在攝像頭移動(dòng)的過程中,依據(jù)時(shí)間距離和空間距離閾值從視頻幀中選取關(guān)鍵幀k,每
    一個(gè)關(guān)鍵幀對(duì)應(yīng)一個(gè)估計(jì)的相機(jī)姿態(tài),所有關(guān)鍵幀構(gòu)成關(guān)鍵幀集合(b)構(gòu)建三維圖三維圖中包含點(diǎn)云數(shù)據(jù)其中pi為點(diǎn)云數(shù)據(jù)中的某一三維點(diǎn),
    為的基,即中元素的數(shù)量,當(dāng)新的關(guān)鍵幀被加入關(guān)鍵幀集合時(shí),它與關(guān)鍵
    幀集合中其他關(guān)鍵幀執(zhí)行立體匹配,產(chǎn)生新的點(diǎn)云數(shù)據(jù)加入點(diǎn)云中的每一個(gè)
    三維點(diǎn)pi記錄著它的三維坐標(biāo),法線方向,像素特征;當(dāng)關(guān)鍵幀加入關(guān)鍵幀集合時(shí),它
    與關(guān)鍵幀集合中其他關(guān)鍵幀進(jìn)行匹配,產(chǎn)生點(diǎn)云數(shù)據(jù);
    (c)三維圖和關(guān)鍵幀集合通過全局捆綁調(diào)整進(jìn)行精細(xì)優(yōu)化:
    其中ejk為第j個(gè)三維點(diǎn)相對(duì)于第k個(gè)關(guān)鍵幀的重投影誤差,Obj為Huber函數(shù),以增加
    對(duì)噪聲和野點(diǎn)的魯棒性,Sk為在關(guān)鍵幀k上可見的三維圖的子集,和分別表示第
    2個(gè)和第個(gè)關(guān)鍵幀的相機(jī)姿態(tài)估計(jì)值;μ為待優(yōu)化的相機(jī)姿態(tài),p為待優(yōu)化的三維點(diǎn);
    (d)估計(jì)每一視頻幀在場(chǎng)景坐標(biāo)系下的相機(jī)姿態(tài):
    相機(jī)姿態(tài)為三維空間的剛體變換,假設(shè)當(dāng)前視頻幀序號(hào)為i,相機(jī)姿態(tài)包括了3×3的旋
    轉(zhuǎn)矩陣Ri和3×1的平移矢量ti,在李群和李代數(shù)中,用一個(gè)6維的矢量μi等價(jià)的表示相機(jī)姿

    \t態(tài);配準(zhǔn)當(dāng)前視頻幀i與三維圖即尋找最優(yōu)的相機(jī)姿態(tài)參數(shù)使得三維圖中相對(duì)于
    視頻幀i的可見點(diǎn)集Si的重投影誤差最小:
    μ^i=argminμΣj∈SiObj(ej)]]>其中,μ為待優(yōu)化相機(jī)姿態(tài),ej代表Si中第j個(gè)三維點(diǎn)相對(duì)于當(dāng)前視頻幀i的重投影誤差,Obj
    為Huber函數(shù)。
    3.根據(jù)權(quán)利要求1或2所述的基于消費(fèi)級(jí)攝像頭的魯棒實(shí)時(shí)三維重建方法,其特征在
    于所述步驟二具體為:
    (一)將關(guān)鍵幀集合中的關(guān)鍵幀按照和當(dāng)前幀的基線大小的升序排列,并選擇前M
    幀構(gòu)成一個(gè)子集,從中選擇與當(dāng)前幀夾角最小的關(guān)鍵幀子集假設(shè)關(guān)鍵幀集合中的相機(jī)
    中心坐標(biāo)依次是c1,c2,c3...cn,當(dāng)前幀的相機(jī)中心坐標(biāo)為c,當(dāng)前幀與第m個(gè)關(guān)鍵幀的基線的
    計(jì)算方法是:
    Dm=(c-cm)2;]]>(二)根據(jù)基線大小,按照升序進(jìn)行排序,根據(jù)距離閾值T從中選擇一個(gè)關(guān)鍵幀子集
    T值定義為相鄰關(guān)鍵幀之間距離的平均值的2倍,當(dāng)前幀與關(guān)鍵幀之間的夾角的計(jì)算
    如下:
    假設(shè)當(dāng)前幀的光學(xué)軸為r,某一關(guān)鍵幀的光學(xué)軸為rm,則二者的夾角為:
    arcos(r·rm|r||rm|)]]>其中·為點(diǎn)積操作,||為矢量范數(shù);
    (三)根據(jù)當(dāng)前幀與關(guān)鍵幀子集中的關(guān)鍵幀逐個(gè)的計(jì)算夾角,從中選擇夾角最小的
    關(guān)鍵幀Km作為最佳關(guān)鍵幀用于下一步的深度估計(jì)。
    4.根據(jù)權(quán)利要求3所述的基于消費(fèi)級(jí)攝像頭的魯棒實(shí)時(shí)三維重建方法,其特征在于所
    述步驟三采用快速魯棒的深度估計(jì)算法估計(jì)每一視頻幀的深度信息:
    (a)隨機(jī)初始化:對(duì)于當(dāng)前幀It和最佳關(guān)鍵幀目標(biāo)是估計(jì)It上每一像素的深度;
    設(shè)深度搜索范圍為[dmin,dmax],對(duì)于It中的每一個(gè)像素位置p=(x,y),隨機(jī)初始化一個(gè)深度

    \t值dp,基于對(duì)光照變化的魯棒性,使用ZNCC的負(fù)值作為度量深度假設(shè)的成本,對(duì)于當(dāng)前幀It的像素位置p,選擇一個(gè)以它為中心的w×w的窗口,對(duì)于窗口中的每一個(gè)像素位置其
    深度值為dp,計(jì)算其在的對(duì)應(yīng)的像素位置,并計(jì)算匹配成本;其中,所述dmin和dmax分別
    為深度搜索范圍中的最小深度和最大深度;
    (b)深度傳播:采用基于掃描線的傳播方式,即:
    (i)行掃描:逐行從左向右比較相鄰像素的成本,如果cost(dx-1,y)<cost(dx,y),則
    dx,y=dx-1,y,然后逐行從右向左掃描,如果cost(dx+1,y)<cost(d...

    【專利技術(shù)屬性】
    技術(shù)研發(fā)人員:王寬全李兆歆左旺孟張磊
    申請(qǐng)(專利權(quán))人:哈爾濱工業(yè)大學(xué)
    類型:發(fā)明
    國(guó)別省市:黑龍江;23

    網(wǎng)友詢問留言 已有0條評(píng)論
    • 還沒有人留言評(píng)論。發(fā)表了對(duì)其他瀏覽者有用的留言會(huì)獲得科技券。

    1
    主站蜘蛛池模板: 在线观看亚洲AV每日更新无码| 亚洲av成本人无码网站| 潮喷失禁大喷水aⅴ无码| 寂寞少妇做spa按摩无码| 日韩av无码中文字幕| 激情射精爆插热吻无码视频| 国产成人精品无码一区二区| 免费无码黄十八禁网站在线观看 | 久久无码av三级| 中文午夜人妻无码看片| 亚洲AⅤ永久无码精品AA| 亚洲中文久久精品无码1| 国产AV无码专区亚洲AV毛网站| 亚洲av无码成人精品区一本二本| 国产a级理论片无码老男人| 国产精品爆乳奶水无码视频 | AV无码精品一区二区三区宅噜噜| 亚洲av午夜精品无码专区| 中文字幕av无码一区二区三区电影| 无码人妻啪啪一区二区| 99久久亚洲精品无码毛片| 久久亚洲精品无码| 13小箩利洗澡无码视频网站免费| 无码欧精品亚洲日韩一区夜夜嗨| 亚洲AV无码一区二区三区网址| 亚洲的天堂av无码| 99无码精品二区在线视频| 无码精品日韩中文字幕| 无码精品国产一区二区三区免费| 亚洲熟妇无码AV在线播放| 亚洲一区AV无码少妇电影☆| 国产精品无码久久综合| 亚洲韩国精品无码一区二区三区| 黄A无码片内射无码视频| 日韩精品无码一区二区视频| 中文字幕无码乱人伦| 无码av免费一区二区三区试看| 日韩午夜福利无码专区a| 亚洲中文字幕无码中文| 国产精品无码久久综合网| 无码日韩人妻AV一区二区三区|