• 
    <ul id="o6k0g"></ul>
    <ul id="o6k0g"></ul>

    一種基于深度圖像的物體測量方法技術(shù)

    技術(shù)編號:14239891 閱讀:108 留言:0更新日期:2016-12-21 15:29
    本發(fā)明專利技術(shù)涉及一種基于深度圖像的物體測量方法,用以獲取被測物體的大小并展現(xiàn),包括以下步驟:1)獲取被測物體的深度圖像;2)根據(jù)深度圖像中所有像素點的數(shù)據(jù),獲取被測物體邊緣的坐標數(shù)據(jù);3)將被測物體邊緣上像素點轉(zhuǎn)化為實際坐標;4)根據(jù)實際坐標獲取被測物體實際的長度、寬度及實際物體邊框;5)在可交互界面中根據(jù)被測物體實際的長度、寬度與深度繪制該被測物體并顯示。與現(xiàn)有技術(shù)相比,本發(fā)明專利技術(shù)具有測量準確、可交互等優(yōu)點。

    An object measurement method based on depth image

    The invention relates to a measurement method based on depth image, in order to get object size and display, which comprises the following steps: 1) obtain the depth image; 2) according to the depth of every pixel in the image data, to obtain the coordinates of the measured object edge data; 3) will be measured the object edge pixels into actual coordinates; 4) according to the actual coordinates of length and width and the actual object frame object is actual; 5) in the interface according to the length, width and depth of the object to be measured the actual drawing of the object to be measured and displayed. Compared with the prior art, the invention has the advantages of accurate measurement, interactive and so on.

    【技術(shù)實現(xiàn)步驟摘要】

    本專利技術(shù)涉及三維圖形學領(lǐng)域,尤其是涉及一種基于深度圖像的物體測量方法
    技術(shù)介紹
    在三維圖形學中,深度映射是指一種圖像或者圖像通道,這種圖像包含著深度信息,而深度信息則是指從一個視角中獲得的物體表面的距離值,深度映射有很多的應用。例如:模擬稠密的半透明媒介對物體的效應;模擬景深效應;陰影映射等。常見的深度攝像頭有微軟開發(fā)的Kinect和英特爾開發(fā)的RealSense Camera。Kinect感應器是一個外型類似網(wǎng)絡(luò)攝影機的裝置。Kinect有三個鏡頭,中間的鏡頭是RGB彩色攝影機,左右兩邊鏡頭則分別為紅外線發(fā)射器和紅外線CMOS攝影機所構(gòu)成的3D結(jié)構(gòu)光深度感應器。Kinect還搭配了追焦技術(shù),底座馬達會隨著對焦物體移動跟著轉(zhuǎn)動。Kinect也內(nèi)建陣列式麥克風,由多組麥克風同時收音,比對后消除雜音。Kinect有一個官方sdk以及三個非官方驅(qū)動。Kinect的應用開發(fā)包括虛擬應用、3D建模、機械控制等。而英特爾推出的首款集成了3D深度和2D鏡頭模塊的RealSense 3D攝像頭,它能實現(xiàn)高度精確的手勢識別、面部特征識別,將幫助機器理解人的動作和情感。
    技術(shù)實現(xiàn)思路
    本專利技術(shù)的目的就是為了克服上述現(xiàn)有技術(shù)存在的缺陷而提供一種測量準確、可交互的基于深度圖像的物體測量方法。本專利技術(shù)的目的可以通過以下技術(shù)方案來實現(xiàn):一種基于深度圖像的物體測量方法,用以獲取被測物體的大小并展現(xiàn),包括以下步驟:1)獲取被測物體的深度圖像;2)根據(jù)深度圖像中所有像素點的數(shù)據(jù),獲取被測物體邊緣的坐標數(shù)據(jù);3)將被測物體邊緣上像素點轉(zhuǎn)化為實際坐標;4)根據(jù)實際坐標獲取被測物體實際的長度、寬度及實際物體邊框;5)在可交互界面中根據(jù)被測物體實際的長度、寬度與深度繪制該被測物體并顯示。所述的步驟2)具體包括以下步驟:21)根據(jù)深度圖像中所有像素點的數(shù)據(jù)采用遍歷算法獲取被測物體的最左、最右、最上和最下四個端點的圖像坐標;22)根據(jù)四個端點的圖像坐標繪制邊緣矩形,并獲取被測物體的邊緣坐標。所述的步驟5)具體包括以下步驟:51)將在被測物體的實際邊框范圍外的像素點用白色顯示;52)在實際邊框范圍內(nèi)的像素點根據(jù)采用灰度按照深度比例進行填充并展示。所述的被測物體為規(guī)則物體,包括長方體、圓柱體和四面體。所述的步驟5)還包括以下步驟:采用與實際邊框范圍內(nèi)的像素點灰度和白色均不同的顏色顯示邊框。與現(xiàn)有技術(shù)相比,本專利技術(shù)具有以下優(yōu)點:一、測量準確:本專利技術(shù)通過深度圖像中的三維信息獲取被測物體的準確位置和實際邊框,從而準確的計算出物體的長度、寬度和深度。二、可交互:本專利技術(shù)通過在可交互界面上顯示深度圖像中的物體,更加生動,便于后續(xù)的渲染、動態(tài)等圖像處理。附圖說明圖1為圖1是本創(chuàng)新工作方法的流程圖。具體實施方式下面結(jié)合附圖和具體實施例對本專利技術(shù)進行詳細說明。實施例:如圖1所示,本方法的實現(xiàn)方式包括以下步驟:第一步、獲取深度圖像。首先創(chuàng)建realSense攝像頭的一個運行實例:PXCProjection*p=device->CreateProjection();然后獲取深度圖片:PXCImage*image=depth;第二步、找出物體邊緣。通過遍歷算法找到找到物體最左、最右、最上、最下四個端點并根據(jù)這四個端點的坐標畫出邊緣矩形。最下端點:point=blobData->QueryExtremityPoint(PXCBlobData::EXTREMITY_BOTTOM_MOST);int pointImageX=(int)point.x;int pointImageY=(int)point.y;int bottomX=(int)point.x;int bottomY=(int)point.y;最上端點:point=blobData->QueryExtremityPoint(PXCBlobData::EXTREMITY_TOP_MOST);pointImageX=(int)point.x;pointImageY=(int)point.y;int topX=(int)point.x;int topY=(int)point.y;最左端點:point=blobData->QueryExtremityPoint(PXCBlobData::EXTREMITY_LEFT_MOST);pointImageX=(int)point.x;pointImageY=(int)point.y;int leftX=(int)point.x;int leftY=(int)point.y;最右端點:point=blobData->QueryExtremityPoint(PXCBlobData::EXTREMITY_RIGHT_MOST);pointImageX=(int)point.x;pointImageY=(int)point.y;int rightX=(int)point.x;int rightY=(int)point.y;最近端點:point=blobData->QueryExtremityPoint(PXCBlobData::EXTREMITY_CLOSEST);pointImageX=(int)point.x;pointImageY=(int)point.y;pointImageZ=(int)point.z;最遠端點:得到并畫出矩形邊緣:第三步、計算物體大小。首先將邊緣坐標的像素值轉(zhuǎn)化為真實值,然后計算長度及大小。坐標轉(zhuǎn)換:float BX=vertices[bottomY*width+bottomX].x;float BY=vertices[bottomY*width+bottomX].y;float BZ=vertices[bottomY*width+bottomX].z;計算大小:fout<<\size:\<<abs(LX-RX)<<'*'<<abs(TY-BY)<<endl;第四步、顯示深度圖像以及物體邊框。從攝像頭實例中獲得深度圖像,限制一定的深度范圍,將這個范圍中的像素點用白色顯示出來,其他部分不顯示,就獲得了我們需要的深度圖像。物體邊框在第二步中獲取時同時完成了顯示。第五步、顯示物體的長度、寬度、深度值。利用官方sdk中原來的用戶界面,將界面中顯示的內(nèi)容改成物體的長度、寬度、深度值。HWND hwndValue=GetDlgItem(hwndDlg,IDC_BlobSmooth);EnableWindow(hwndValue,true);wchar_t line[256];swprintf_s(line,L\%.2f\,length);SetWindowText(hwndValue,line);HWND hwndValue1=GetDlgItem(hwndDlg,IDC_MaxBlobs);EnableWindow(hwndValue1,true);wchar_t line1[256];swprintf_s(line1,L\%.2f\,wwidth);SetWindowText(hwndValue1,line1);HWND hwndValue2=GetDlgItem(hwnd本文檔來自技高網(wǎng)...
    一種基于深度圖像的物體測量方法

    【技術(shù)保護點】
    一種基于深度圖像的物體測量方法,用以獲取被測物體的大小并展現(xiàn),其特征在于,包括以下步驟:1)獲取被測物體的深度圖像;2)根據(jù)深度圖像中所有像素點的數(shù)據(jù),獲取被測物體邊緣的坐標數(shù)據(jù);3)將被測物體邊緣上像素點轉(zhuǎn)化為實際坐標;4)根據(jù)實際坐標獲取被測物體實際的長度、寬度及實際物體邊框;5)在可交互界面中根據(jù)被測物體實際的長度、寬度與深度繪制該被測物體并顯示。

    【技術(shù)特征摘要】
    1.一種基于深度圖像的物體測量方法,用以獲取被測物體的大小并展現(xiàn),其特征在于,包括以下步驟:1)獲取被測物體的深度圖像;2)根據(jù)深度圖像中所有像素點的數(shù)據(jù),獲取被測物體邊緣的坐標數(shù)據(jù);3)將被測物體邊緣上像素點轉(zhuǎn)化為實際坐標;4)根據(jù)實際坐標獲取被測物體實際的長度、寬度及實際物體邊框;5)在可交互界面中根據(jù)被測物體實際的長度、寬度與深度繪制該被測物體并顯示。2.根據(jù)權(quán)利要求1所述的一種基于深度圖像的物體測量方法,其特征在于,所述的步驟2)具體包括以下步驟:21)根據(jù)深度圖像中所有像素點的數(shù)據(jù)采用遍歷算法獲取被測物體的最左、最右、最上和最下四個端點的圖像坐標;22...

    【專利技術(shù)屬性】
    技術(shù)研發(fā)人員:盛斌
    申請(專利權(quán))人:上海交通大學
    類型:發(fā)明
    國別省市:上海;31

    網(wǎng)友詢問留言 已有0條評論
    • 還沒有人留言評論。發(fā)表了對其他瀏覽者有用的留言會獲得科技券。

    1
    主站蜘蛛池模板: 中文字幕av无码专区第一页| 亚洲一级Av无码毛片久久精品| 成人免费无码大片a毛片| yy111111少妇影院无码| 中文字幕无码一区二区三区本日| 亚洲aⅴ无码专区在线观看春色| 无码人妻精品一区二区三区99仓本 | 熟妇人妻中文字幕无码老熟妇| 亚洲av成本人无码网站| 国产精品无码久久久久久| 一本大道无码人妻精品专区 | 人妻系列无码专区久久五月天| 性无码专区无码片| 一夲道无码人妻精品一区二区| 亚洲的天堂av无码| AV无码久久久久不卡网站下载| 无码AV波多野结衣久久| 极品粉嫩嫩模大尺度无码视频| 一本大道无码人妻精品专区| 亚洲国产精品无码久久98 | 免费无码又爽又高潮视频| 无码精品视频一区二区三区| 精品亚洲成α人无码成α在线观看 | 无码精品一区二区三区在线| 国产成人无码区免费内射一片色欲 | 国产V片在线播放免费无码| 久久人午夜亚洲精品无码区| 国产裸模视频免费区无码| 精品无码人妻一区二区三区不卡| 色综合无码AV网站| 亚洲精品无码久久久久YW| 亚洲熟妇无码久久精品| 麻豆aⅴ精品无码一区二区| 性生交片免费无码看人| 亚洲中文字幕无码av永久| 亚洲精品无码mⅴ在线观看| 亚洲性无码一区二区三区| 亚洲最大中文字幕无码网站| 亚洲AV无码国产剧情| 免费无码黄十八禁网站在线观看| 2020无码专区人妻系列日韩|