The invention discloses a feature point based on density estimation method and device by focusing the stack depth, the method includes: extracting feature points of each image focusing in the stack, the establishment of focus measure feature points based on density estimation; depth of focus measure introduced a weighted feature point density of the model: the focus measure by SML for example, a weighted linear mixed focus measure SML and the density of feature points as the objective function of depth estimation, estimation of scene depth and focus map. The scheme of the invention, a focus measure about the density of feature points and establish linear weighted focus measure, and construct the estimation model based on the depth of focus measure, obtaining the depth information of the scene, focus and 3D reconstruction to achieve the scene, can provide accurate depth information for realistic 3D reconstruction and obtain full focus image.
【技術(shù)實現(xiàn)步驟摘要】
一種基于特征點密度由聚焦堆棧估計深度的方法和裝置
本專利技術(shù)涉及計算機視覺與數(shù)字圖像處理領(lǐng)域,尤其涉及一種基于特征點密度由聚焦堆棧估計深度的方法和裝置。
技術(shù)介紹
場景三維信息的數(shù)字化拓展了人類對三維空間的認知和表達方式,基于圖像的三維重建一直是計算視覺的研究熱點。場景深度信息重構(gòu)可為虛擬現(xiàn)實、增強現(xiàn)實以及攝影測量等提供三維信息,是重構(gòu)三維場景的關(guān)鍵。目前,基于圖像的場景深度估計的方法主要分為立體視覺方法和單目視覺方法。對于立體視覺方法,深度估算方法以視差法較為常見,視差法以不同視點圖像間產(chǎn)生的視差作為深度估計的依據(jù),其核心問題在于匹配,因此視差法在平滑區(qū)域和遮擋區(qū)域存在較大誤差。對于單目視覺方法而言,主要是利用聚焦和失焦信息。在同一場景不同聚焦深度圖像的變焦數(shù)據(jù)實現(xiàn)對場景的深度估計,聚焦法核心問題在于聚焦度測量。圖像中點距離聚焦平面距離的不同,相應(yīng)地聚焦程度也不一樣。目前,對圖像上像素點的聚焦程度的刻畫,大多采用散焦測度或聚焦測度,從而計算物點的深度。散焦測度的深度估計是利用系統(tǒng)點擴散函數(shù)反推求解,進行深度估計。對聚焦測度的刻畫,應(yīng)用比較廣泛的有:Modifield-Laplacian、theTenengardAlgorithm和Gray-LevelVariance、小波變換和信息熵等。但是,現(xiàn)有技術(shù)中的聚焦測度方法在圖像紋理區(qū)域檢測的準確性不高。
技術(shù)實現(xiàn)思路
本專利技術(shù)的目的在于提供一種基于特征點密度由聚焦堆棧估計深度的方法和裝置,其能夠彌補常規(guī)聚焦測度方法在紋理區(qū)域檢測不準確的問題。為實現(xiàn)上述目的,本專利技術(shù)提供一種基于特征點密度由聚焦堆棧估計深度的方 ...
【技術(shù)保護點】
一種基于特征點密度由聚焦堆棧估計深度的方法,其特征在于,所述方法包括:提取聚焦堆棧中每個圖像的特征點,根據(jù)所述每個圖像的特征點得到特征點密度的聚焦測度;利用特征點密度的聚焦測度和已有的聚焦測度,建立線性加權(quán)的聚焦測度,根據(jù)所述線性加權(quán)的聚焦測度得到圖像中任意像素點的聚焦測度值;根據(jù)圖像中任意像素點的聚焦測度值估計圖像中物點的深度。
【技術(shù)特征摘要】
2016.12.14 CN 20161115581481.一種基于特征點密度由聚焦堆棧估計深度的方法,其特征在于,所述方法包括:提取聚焦堆棧中每個圖像的特征點,根據(jù)所述每個圖像的特征點得到特征點密度的聚焦測度;利用特征點密度的聚焦測度和已有的聚焦測度,建立線性加權(quán)的聚焦測度,根據(jù)所述線性加權(quán)的聚焦測度得到圖像中任意像素點的聚焦測度值;根據(jù)圖像中任意像素點的聚焦測度值估計圖像中物點的深度。2.如權(quán)利要求1所述的方法,其特征在于,所述提取聚焦堆棧中每個圖像的特征點,具體根據(jù)透鏡與探測器的相互運動或改變透鏡的焦距,提取出聚焦堆棧中每個圖像的特征點。3.如權(quán)利要求1所述的方法,其特征在于,所述建立特征點密度的聚焦測度具體為:其中,R(x,y)(d)為像點(x,y)的特征點密度的聚焦測度,表示落入像素點(x,y)鄰域Ω(x,y)內(nèi)的特征點數(shù)。4.如權(quán)利要求3所述的方法,其特征在于,所述已有的聚焦測度具體為SML聚焦測度,相應(yīng)的,所述利用特征點密度的聚焦測度和已有的聚焦測度,建立的線性加權(quán)的聚焦測度,具體為其中,表示SML聚焦測度,為改進的拉普拉斯算子,Id(x,y)表示在d深度下所成圖像,step表示SML算子中的步進值,參數(shù)N決定計算像素點(x,y)的聚焦測度的窗口大小,α∈[0,1]是平衡聚焦測度算子與特征點測度算子的權(quán)重。5.如權(quán)利要求1所述的方法,其特征在于,所述根據(jù)圖像中任意像素點的聚焦測度值估計圖像中物點的深度,具體包括:計算圖像中像素點(x,y)的聚焦測度{focus(x,y)(dk)|k=1,2,…,N};深度估計方式為d(x,y)=argmaxd{focus(x,y)(dk)},其中,N表示聚焦堆棧圖像的總數(shù),focus(x,y)(dk)表示圖像在dk深度下像點(x,y)的聚焦測度值。6.一種基于特征點密度由聚焦堆棧估計深度的裝置,其特征在于,所述...
【專利技術(shù)屬性】
技術(shù)研發(fā)人員:邱鈞,何建梅,劉暢,
申請(專利權(quán))人:北京信息科技大學(xué),
類型:發(fā)明
國別省市:北京,11
還沒有人留言評論。發(fā)表了對其他瀏覽者有用的留言會獲得科技券。