• 
    <ul id="o6k0g"></ul>
    <ul id="o6k0g"></ul>

    一種基于深度圖像的物體測量方法技術(shù)

    技術(shù)編號:14239891 閱讀:108 留言:0更新日期:2016-12-21 15:29
    本發(fā)明專利技術(shù)涉及一種基于深度圖像的物體測量方法,用以獲取被測物體的大小并展現(xiàn),包括以下步驟:1)獲取被測物體的深度圖像;2)根據(jù)深度圖像中所有像素點的數(shù)據(jù),獲取被測物體邊緣的坐標數(shù)據(jù);3)將被測物體邊緣上像素點轉(zhuǎn)化為實際坐標;4)根據(jù)實際坐標獲取被測物體實際的長度、寬度及實際物體邊框;5)在可交互界面中根據(jù)被測物體實際的長度、寬度與深度繪制該被測物體并顯示。與現(xiàn)有技術(shù)相比,本發(fā)明專利技術(shù)具有測量準確、可交互等優(yōu)點。

    An object measurement method based on depth image

    The invention relates to a measurement method based on depth image, in order to get object size and display, which comprises the following steps: 1) obtain the depth image; 2) according to the depth of every pixel in the image data, to obtain the coordinates of the measured object edge data; 3) will be measured the object edge pixels into actual coordinates; 4) according to the actual coordinates of length and width and the actual object frame object is actual; 5) in the interface according to the length, width and depth of the object to be measured the actual drawing of the object to be measured and displayed. Compared with the prior art, the invention has the advantages of accurate measurement, interactive and so on.

    【技術(shù)實現(xiàn)步驟摘要】

    本專利技術(shù)涉及三維圖形學領(lǐng)域,尤其是涉及一種基于深度圖像的物體測量方法
    技術(shù)介紹
    在三維圖形學中,深度映射是指一種圖像或者圖像通道,這種圖像包含著深度信息,而深度信息則是指從一個視角中獲得的物體表面的距離值,深度映射有很多的應用。例如:模擬稠密的半透明媒介對物體的效應;模擬景深效應;陰影映射等。常見的深度攝像頭有微軟開發(fā)的Kinect和英特爾開發(fā)的RealSense Camera。Kinect感應器是一個外型類似網(wǎng)絡(luò)攝影機的裝置。Kinect有三個鏡頭,中間的鏡頭是RGB彩色攝影機,左右兩邊鏡頭則分別為紅外線發(fā)射器和紅外線CMOS攝影機所構(gòu)成的3D結(jié)構(gòu)光深度感應器。Kinect還搭配了追焦技術(shù),底座馬達會隨著對焦物體移動跟著轉(zhuǎn)動。Kinect也內(nèi)建陣列式麥克風,由多組麥克風同時收音,比對后消除雜音。Kinect有一個官方sdk以及三個非官方驅(qū)動。Kinect的應用開發(fā)包括虛擬應用、3D建模、機械控制等。而英特爾推出的首款集成了3D深度和2D鏡頭模塊的RealSense 3D攝像頭,它能實現(xiàn)高度精確的手勢識別、面部特征識別,將幫助機器理解人的動作和情感。
    技術(shù)實現(xiàn)思路
    本專利技術(shù)的目的就是為了克服上述現(xiàn)有技術(shù)存在的缺陷而提供一種測量準確、可交互的基于深度圖像的物體測量方法。本專利技術(shù)的目的可以通過以下技術(shù)方案來實現(xiàn):一種基于深度圖像的物體測量方法,用以獲取被測物體的大小并展現(xiàn),包括以下步驟:1)獲取被測物體的深度圖像;2)根據(jù)深度圖像中所有像素點的數(shù)據(jù),獲取被測物體邊緣的坐標數(shù)據(jù);3)將被測物體邊緣上像素點轉(zhuǎn)化為實際坐標;4)根據(jù)實際坐標獲取被測物體實際的長度、寬度及實際物體邊框;5)在可交互界面中根據(jù)被測物體實際的長度、寬度與深度繪制該被測物體并顯示。所述的步驟2)具體包括以下步驟:21)根據(jù)深度圖像中所有像素點的數(shù)據(jù)采用遍歷算法獲取被測物體的最左、最右、最上和最下四個端點的圖像坐標;22)根據(jù)四個端點的圖像坐標繪制邊緣矩形,并獲取被測物體的邊緣坐標。所述的步驟5)具體包括以下步驟:51)將在被測物體的實際邊框范圍外的像素點用白色顯示;52)在實際邊框范圍內(nèi)的像素點根據(jù)采用灰度按照深度比例進行填充并展示。所述的被測物體為規(guī)則物體,包括長方體、圓柱體和四面體。所述的步驟5)還包括以下步驟:采用與實際邊框范圍內(nèi)的像素點灰度和白色均不同的顏色顯示邊框。與現(xiàn)有技術(shù)相比,本專利技術(shù)具有以下優(yōu)點:一、測量準確:本專利技術(shù)通過深度圖像中的三維信息獲取被測物體的準確位置和實際邊框,從而準確的計算出物體的長度、寬度和深度。二、可交互:本專利技術(shù)通過在可交互界面上顯示深度圖像中的物體,更加生動,便于后續(xù)的渲染、動態(tài)等圖像處理。附圖說明圖1為圖1是本創(chuàng)新工作方法的流程圖。具體實施方式下面結(jié)合附圖和具體實施例對本專利技術(shù)進行詳細說明。實施例:如圖1所示,本方法的實現(xiàn)方式包括以下步驟:第一步、獲取深度圖像。首先創(chuàng)建realSense攝像頭的一個運行實例:PXCProjection*p=device->CreateProjection();然后獲取深度圖片:PXCImage*image=depth;第二步、找出物體邊緣。通過遍歷算法找到找到物體最左、最右、最上、最下四個端點并根據(jù)這四個端點的坐標畫出邊緣矩形。最下端點:point=blobData->QueryExtremityPoint(PXCBlobData::EXTREMITY_BOTTOM_MOST);int pointImageX=(int)point.x;int pointImageY=(int)point.y;int bottomX=(int)point.x;int bottomY=(int)point.y;最上端點:point=blobData->QueryExtremityPoint(PXCBlobData::EXTREMITY_TOP_MOST);pointImageX=(int)point.x;pointImageY=(int)point.y;int topX=(int)point.x;int topY=(int)point.y;最左端點:point=blobData->QueryExtremityPoint(PXCBlobData::EXTREMITY_LEFT_MOST);pointImageX=(int)point.x;pointImageY=(int)point.y;int leftX=(int)point.x;int leftY=(int)point.y;最右端點:point=blobData->QueryExtremityPoint(PXCBlobData::EXTREMITY_RIGHT_MOST);pointImageX=(int)point.x;pointImageY=(int)point.y;int rightX=(int)point.x;int rightY=(int)point.y;最近端點:point=blobData->QueryExtremityPoint(PXCBlobData::EXTREMITY_CLOSEST);pointImageX=(int)point.x;pointImageY=(int)point.y;pointImageZ=(int)point.z;最遠端點:得到并畫出矩形邊緣:第三步、計算物體大小。首先將邊緣坐標的像素值轉(zhuǎn)化為真實值,然后計算長度及大小。坐標轉(zhuǎn)換:float BX=vertices[bottomY*width+bottomX].x;float BY=vertices[bottomY*width+bottomX].y;float BZ=vertices[bottomY*width+bottomX].z;計算大小:fout<<\size:\<<abs(LX-RX)<<'*'<<abs(TY-BY)<<endl;第四步、顯示深度圖像以及物體邊框。從攝像頭實例中獲得深度圖像,限制一定的深度范圍,將這個范圍中的像素點用白色顯示出來,其他部分不顯示,就獲得了我們需要的深度圖像。物體邊框在第二步中獲取時同時完成了顯示。第五步、顯示物體的長度、寬度、深度值。利用官方sdk中原來的用戶界面,將界面中顯示的內(nèi)容改成物體的長度、寬度、深度值。HWND hwndValue=GetDlgItem(hwndDlg,IDC_BlobSmooth);EnableWindow(hwndValue,true);wchar_t line[256];swprintf_s(line,L\%.2f\,length);SetWindowText(hwndValue,line);HWND hwndValue1=GetDlgItem(hwndDlg,IDC_MaxBlobs);EnableWindow(hwndValue1,true);wchar_t line1[256];swprintf_s(line1,L\%.2f\,wwidth);SetWindowText(hwndValue1,line1);HWND hwndValue2=GetDlgItem(hwnd本文檔來自技高網(wǎng)...
    一種基于深度圖像的物體測量方法

    【技術(shù)保護點】
    一種基于深度圖像的物體測量方法,用以獲取被測物體的大小并展現(xiàn),其特征在于,包括以下步驟:1)獲取被測物體的深度圖像;2)根據(jù)深度圖像中所有像素點的數(shù)據(jù),獲取被測物體邊緣的坐標數(shù)據(jù);3)將被測物體邊緣上像素點轉(zhuǎn)化為實際坐標;4)根據(jù)實際坐標獲取被測物體實際的長度、寬度及實際物體邊框;5)在可交互界面中根據(jù)被測物體實際的長度、寬度與深度繪制該被測物體并顯示。

    【技術(shù)特征摘要】
    1.一種基于深度圖像的物體測量方法,用以獲取被測物體的大小并展現(xiàn),其特征在于,包括以下步驟:1)獲取被測物體的深度圖像;2)根據(jù)深度圖像中所有像素點的數(shù)據(jù),獲取被測物體邊緣的坐標數(shù)據(jù);3)將被測物體邊緣上像素點轉(zhuǎn)化為實際坐標;4)根據(jù)實際坐標獲取被測物體實際的長度、寬度及實際物體邊框;5)在可交互界面中根據(jù)被測物體實際的長度、寬度與深度繪制該被測物體并顯示。2.根據(jù)權(quán)利要求1所述的一種基于深度圖像的物體測量方法,其特征在于,所述的步驟2)具體包括以下步驟:21)根據(jù)深度圖像中所有像素點的數(shù)據(jù)采用遍歷算法獲取被測物體的最左、最右、最上和最下四個端點的圖像坐標;22...

    【專利技術(shù)屬性】
    技術(shù)研發(fā)人員:盛斌
    申請(專利權(quán))人:上海交通大學
    類型:發(fā)明
    國別省市:上海;31

    網(wǎng)友詢問留言 已有0條評論
    • 還沒有人留言評論。發(fā)表了對其他瀏覽者有用的留言會獲得科技券。

    1
    主站蜘蛛池模板: 国产乱子伦精品免费无码专区| 毛片无码免费无码播放| 国产免费av片在线无码免费看| 国产a v无码专区亚洲av| 八戒理论片午影院无码爱恋| 久久老子午夜精品无码| 日韩A无码AV一区二区三区| 午夜不卡无码中文字幕影院| 精品久久久无码人妻中文字幕豆芽 | 18禁超污无遮挡无码免费网站国产| 青春草无码精品视频在线观| 无码AV片在线观看免费| 亚洲成a人无码av波多野按摩 | 亚洲AV综合永久无码精品天堂| 台湾无码AV一区二区三区| 少妇特殊按摩高潮惨叫无码| 亚洲AV永久无码精品成人| 日韩美无码五月天| 亚洲AV无码一区二区三区鸳鸯影院 | 日本无码WWW在线视频观看| 亚洲精品无码鲁网中文电影| 日韩AV片无码一区二区不卡| 无码夫の前で人妻を犯す中字 | 人妻无码中文久久久久专区 | 无码国产乱人伦偷精品视频| 亚洲一区二区三区无码影院| 无码视频一区二区三区| 亚洲AV无码XXX麻豆艾秋| 亚洲色在线无码国产精品不卡| 精品人无码一区二区三区| 无码国产精品一区二区免费16 | 亚洲成AV人片在线播放无码| YY111111少妇无码理论片| 久久伊人中文无码| 亚洲中文久久精品无码ww16| 13小箩利洗澡无码视频网站免费 | 精品无码久久久久久久久| 色欲AV永久无码精品无码| 精品无码人妻一区二区三区18| 麻豆亚洲AV成人无码久久精品| 无码高潮少妇毛多水多水免费|