• 
    <ul id="o6k0g"></ul>
    <ul id="o6k0g"></ul>
    當前位置: 首頁 > 專利查詢>中山大學專利>正文

    基于紋理上下文約束的視覺詞匯的圖像超分辨率重建方法技術

    技術編號:8593844 閱讀:227 留言:0更新日期:2013-04-18 07:00
    本發明專利技術公開了一種基于紋理上下文約束的視覺詞匯的圖像超分辨率重建方法,屬于圖像超分辨率研究領域。本發明專利技術針對現有方法的不足,通過組合聚類學習低分辨率視覺詞匯到高分辨率視覺詞匯一一映射的幾何特征共生先驗知識,使得幾何特征的相似性保持在每一對低分辨率和高分辨率的視覺詞匯之間,滿足了基于實例法的假設條件,確保還原的高分辨率圖像細節的準確性,并建立了一個兩步的圖像超分辨率重建框架,該框架由紋理上下文特征使用最大后驗方法有效地評估真實高分辨率圖像所屬的視覺詞匯,并且通過子空間約束和重構約束由低分辨率圖像構建高分辨率圖像細節。相比現有的方法,通過本發明專利技術提取出來的高分辨率圖像細節更加真實清晰,符合實際情況。

    【技術實現步驟摘要】

    本專利技術涉及圖像超分辨率研究領域,特別涉及一種。
    技術介紹
    在實際應用中,由于攝像機與感興趣景物距離較遠、或由于硬件原因使所拍攝圖像的分辨率很低,感興趣景物在圖像中所占的像素個數很少,從而缺少細節信息,導致難以從圖像中識別和提取感興趣的區域。圖像超分辨率研究技術因為可解決上述問題而得到廣泛關注。傳統的圖像超分辨率重建方法是通過同一場景的多個低分辨率圖像對高分辨率圖像進行估計,但這種方法對于多個子像素精度的低分辨圖像的對齊是困難的,并且現在許多的應用只允許單幅輸入的低分辨率圖像。單幅圖像的圖像超分辨率方法可以分為三種基于插值的方法,基于重構的方法和基于實例的方法。傳統的插值方法和重構方法需要配合先驗知識,但是常用的關于邊緣的先驗知識無法從低分辨率圖像的大部分平滑圖像區域中構造出高分辨率的邊緣細節;基于實例的方法雖然能通過學習高分辨率和低分辨率圖像塊對來恢復丟失的高分辨率圖像細節信息,但是基于實例的方法關于低分辨率圖像間的相似意味著相應的高分辨率圖像間的相似的假設實際上不一定成立,因此不能保證還原的高分辨率圖像細節的準確性。
    技術實現思路
    本專利技術的主要目的在于克服現有技術的缺點與不足,提供一種,該方法能夠使提取出來的高分辨率圖像細節更加真實清晰,更加符合實際情況。本專利技術的目的通過以下的技術方案實現,包括以下步驟(I)訓練階段分為兩個部分,(1-1)第一個部分把成對的同一場景下的高分辨率訓練圖像塊和低分辨率訓練圖像塊的梯度域特征組合在一起,對組合的特征進行聚類分析,把聚類得到的成對的高分辨率的視覺詞匯和低分辨率的視覺詞匯作為幾何共生特征先驗知識,并通過主成分分析找到表達每一個高分辨率視覺詞匯的子空間;(1-2)第二個部分通過圖像分割,從高分辨率圖像訓練集中產生帶有連續紋理特征的高分辨率圖像區域庫,然后通過降采樣得到對應的低分辨率區域庫,從而構建出一個由高分辨率圖像區域和低分辨率圖像區域對組成的數據庫;(2)測試階段把輸入的低分辨率圖像分為若干個圖像塊和圖像區域,通過基于紋理上下文中的詞頻信息的最大后驗概率標準找到最優候選視覺詞匯,然后實施子空間約束和重構約束構建高分辨率圖像塊,最后施加鄰近高分辨率圖像塊間的兼容性約束構建整個圖像。優選的,所述步驟(1-1)中,本專利技術通過計算水平和豎直的一階梯度作為局部特征,并且把一個圖像塊的所有像素點的梯度特征連接起來形成一個向量作為梯度域特征,從而得到每一個圖像塊的局部幾何特征表示,然后再連接高、低分辨率圖像塊的局部幾何特征作為組合的特征。作為優選方案,所述步驟(1-1)中,聚類分析采用B. J. Frey等人提出的仿射傳播聚類算法(參考B. J. Frey and D. Dueck, “Clustering by passing messages betweendata points, ” Science, 2007),該算法是把所有的數據點作為同等的聚類中心的候選,得到初始的聚類結果。更進一步的,在初始的聚類結果上采取增量方式的競爭學習方法改善聚類結果并且增加訓練樣本的數量。增量方式的競爭學習方法如下設經過仿射傳播聚類后有N個聚類(V·· CN,Xn=Xnl,…,XnJ是聚類Cn的M個成員,聚類中心計算為成員的均值,協方差矩陣計算公式為本文檔來自技高網...

    【技術保護點】
    基于紋理上下文約束的視覺詞匯的圖像超分辨率重建方法,其特征在于,包括以下步驟:(1)訓練階段:分為兩個部分,(1?1)第一個部分:把成對的同一場景下的高分辨率訓練圖像塊和低分辨率訓練圖像塊的梯度域特征組合在一起,對組合的特征進行聚類分析,把聚類得到的成對的高分辨率的視覺詞匯和低分辨率的視覺詞匯作為幾何共生特征先驗知識,并通過主成分分析找到表達每一個高分辨率視覺詞匯的子空間;(1?2)第二個部分:通過圖像分割,從高分辨率圖像訓練集中產生帶有連續紋理特征的高分辨率圖像區域庫,然后通過降采樣得到對應的低分辨率區域庫,從而構建出一個由高分辨率圖像區域和低分辨率圖像區域對組成的數據庫;(2)測試階段:把輸入的低分辨率圖像分為若干個圖像塊和圖像區域,通過基于紋理上下文中的詞頻信息的最大后驗概率標準找到最優候選視覺詞匯,然后實施子空間約束和重構約束構建高分辨率圖像塊,最后施加鄰近高分辨率圖像塊間的兼容性約束構建整個圖像。

    【技術特征摘要】
    1.基于紋理上下文約束的視覺詞匯的圖像超分辨率重建方法,其特征在于,包括以下步驟(1)訓練階段分為兩個部分,(1-1)第一個部分把成對的同一場景下的高分辨率訓練圖像塊和低分辨率訓練圖像塊的梯度域特征組合在一起,對組合的特征進行聚類分析,把聚類得到的成對的高分辨率的視覺詞匯和低分辨率的視覺詞匯作為幾何共生特征先驗知識,并通過主成分分析找到表達每一個高分辨率視覺詞匯的子空間;(1-2)第二個部分通過圖像分割,從高分辨率圖像訓練集中產生帶有連續紋理特征的高分辨率圖像區域庫,然后通過降采樣得到對應的低分辨率區域庫,從而構建出一個由高分辨率圖像區域和低分辨率圖像區域對組成的數據庫;(2)測試階段把輸入的低分辨率圖像分為若干個圖像塊和圖像區域,通過基于紋理上下文中的詞頻信息的最大后驗概率標準找到最優候選視覺詞匯,然后實施子空間約束和重構約束構建高分辨率圖像塊,最后施加鄰近高分辨率圖像塊間的兼容性約束構建整個圖像。2.根據權利要求1所述的基于紋理上下文約束的視覺詞匯的圖像超分辨率重建方法, 其特征在于,所述步驟(1-1)中,通過計算水平和豎直的一階梯度作為局部特征,并且把一個圖像塊的所有像素點的梯度特征連接起來形成一個向量作為梯度域特征,從而得到每一個圖像塊的局部幾何特征表示,然后再連接高、低分辨率圖像塊的局部幾何特征作為組合的特征。3.根據權利要求1所述的基于紋理上下文約束的視覺詞匯的圖像超分辨率重建方法, 其特征在于,所述步驟(1-1)中,對組合的特征進行聚類分析后,在初始的聚類結果上采取增量方式的競爭學習方法改善聚類結果,具體步驟如下設經過仿射傳播聚類后有N個聚類4.根據權利要求1所述的基于紋理上下文約束的視覺詞匯的圖像超分辨率重建方法, 其特征在于,所述步驟(1-2 )中紋理特征是通過計算濾波器的響應得到的,濾波器組包含三個尺度、六個方向的一階和二階高斯差分濾波器加上一個圍繞中心的高斯差分濾波器共19 個,對每一個濾波器i,把濾波器的響應量化為20個區間Hi={hi...

    【專利技術屬性】
    技術研發人員:賴劍煌梁炎
    申請(專利權)人:中山大學
    類型:發明
    國別省市:

    網友詢問留言 已有0條評論
    • 還沒有人留言評論。發表了對其他瀏覽者有用的留言會獲得科技券。

    1
    主站蜘蛛池模板: 亚洲成a人片在线观看无码| 久久无码国产专区精品| 亚洲美免无码中文字幕在线| 乱色精品无码一区二区国产盗| 在线看片无码永久免费视频 | 2021无码最新国产在线观看| 亚洲日韩精品无码专区| 国产AV无码专区亚洲AVJULIA| 中文字幕亚洲精品无码| 亚洲爆乳无码专区| 精品无码三级在线观看视频 | 男男AV纯肉无码免费播放无码| 97无码人妻福利免费公开在线视频 | 免费无码一区二区| 中文无码字慕在线观看| 久久成人无码国产免费播放| 国产成人无码精品久久久久免费| 加勒比无码一区二区三区| 最新无码人妻在线不卡| 无码精品A∨在线观看十八禁 | 东京热av人妻无码专区| gogo少妇无码肉肉视频| 亚洲乱亚洲乱少妇无码| 无码 免费 国产在线观看91| 国产在线无码精品无码| 免费a级毛片无码a∨性按摩| 影音先锋中文无码一区| 无码国内精品久久综合88| av无码国产在线看免费网站| 久久亚洲精品成人av无码网站| 无码中文人妻视频2019| 无码AV波多野结衣久久| 久久亚洲精品成人无码网站| 色情无码WWW视频无码区小黄鸭| 亚洲AV无码AV男人的天堂| 亚洲VA中文字幕不卡无码| 免费A级毛片无码视频| av无码久久久久不卡免费网站| 中文无码亚洲精品字幕| 韩国无码AV片在线观看网站| 无码精品人妻一区|