• 
    <ul id="o6k0g"></ul>
    <ul id="o6k0g"></ul>

    基于字典學習和結構相似的圖像超分辨率重建方法技術

    技術編號:8656284 閱讀:443 留言:0更新日期:2013-05-02 00:00
    本發明專利技術公開了一種基于字典學習和結構相似的圖像超分辨率重建方法,主要解決現有技術重建圖像表面模糊,邊緣鋸齒化現象嚴重的問題。其實現步驟是:(1)采集訓練樣本對;(2)利用結構相似SSIM和K-SVD方法學習一對高低分辨率字典;(3)求出輸入的低分辨率圖像塊的稀疏表示系數;(4)利用高分辨率字典和稀疏系數,重建高分辨率圖像塊Xi;(5)融合高分辨率圖像塊Xi,得到信息融合后的高分辨圖像X′i;(6)根據高分辨圖像X′i,得到高分辨率圖像X;(7)通過誤差補償對高分辨圖像X進行高頻信息增強,得到高頻信息增強后的高分辨率圖像。仿真實驗表明,本發明專利技術具有圖像表面清晰,邊緣比較銳化的優點,可用于圖像識別以及目標分類。

    【技術實現步驟摘要】

    本專利技術屬于圖像處理
    ,涉及一種圖像超分辨率重建方法,可用于各種自然圖像的超分辨率重構,并且對小噪聲有一定的抑制作用。
    技術介紹
    在實際應用中,受成像系統物理分辨率限制,以及場景變化與天氣條件等諸多因素的影響,實際成像過程中往往存在光學與運動模糊、欠采樣和噪聲等退化因素,導致成像系統只能得到質量較差、分辨率較低的圖像或圖像序列,通常滿足不了實際的應用要求,這給后續的圖像處理、分析和理解帶來諸多困難,不利于人們正確地認識客觀世界及其規律。解決這一問題一個實用而有效的方法就是圖像超分辨重建技術,其不需要昂貴的圖像獲取設備,只需要通過計算機軟件的處理就能夠獲得更高分辨率的圖像。一般說來,圖像超分辨技術主要分為三種類型:基于插值的方法、基于重構的方法和基于學習的方法。其中:基于插值的方法,如最鄰近插值法和立方插值法,進行超分辨率重建時會造成圖像表面比較模糊,高頻信息會丟失嚴重,尤其是邊緣鋸齒化現象明顯,嚴重影響圖像質量。基于重建的方法,由于人為強加的圖像先驗,導致高分辨圖像邊緣有鋸齒化現象出現,并且在高放大因子條件下重建圖像的質量嚴重退化。這些圖像超分辨方法雖然存在過平滑、邊緣有鋸齒化現象等缺陷,但在技術上取得了一定突破,已經趨于成熟并在電子圖像、互聯網視頻、數字電視等多個領域獲得廣泛應用。基于學習的圖像超分辨方法,是近年來由Freeman等人首先提出的一種圖像分辨方法,其內容是通過馬爾科夫隨機場和先驗知識來學習低分辨率圖像和高分辨率圖像之間的關系,然后重構出高分辨圖像,但這種方法不能很好地保持高分辨圖像的高頻細節,并且計算復雜度較大,效率偏低。專利技術內容本專利技術的目的在于針對上述已有技術的不足,提出一種基于字典學習和結構相似的圖像超分辨重建方法,以避免圖像超分辨率重建時,導致重建圖像的細節丟失嚴重,以及圖像邊緣有振鈴現象。實現本專利技術的技術思路是:利用結構相似SSIM方法和K-SVD算法相結合訓練采集到的訓練樣本對,得到一個更加合理的字典對包括低分辨率字典和高分辨率字典,通過重建算法獲得高分辨率、高清晰的圖像。其具體步驟包括如下:(I)從樣本數據庫中采集訓練樣本對M= [MjM1] = [Hi1,...,mnum],其中,Mh表示高分辨率樣本塊,M1表示對應的低分辨率樣本塊,mp表示M的第ρ列,I彡ρ彡num, num表示樣本對的數目;(2)利用結構相似SS頂和K-SVD的方法,以及步驟(I)中的訓練樣本對M,求得字典01:(2a)初始字典D ;(2b)利用結構相似SSIM求解訓練樣本對!^在字典D下的稀疏表示系數αρ,其公式如下:本文檔來自技高網...

    【技術保護點】
    一種基于字典學習和結構相似的圖像超分辨率重建方法,包括如下步驟:?(1)從樣本數據庫中采集訓練樣本對M=[Mh;Ml]=[m1,...,mnum],其中,Mh表示高分辨率樣本塊,Ml表示對應的低分辨率樣本塊,mp表示M的第p列,1≤p≤num,num表示樣本對的數目;?(2)利用結構相似SSIM和K?SVD的方法,訓練步驟(1)的訓練樣本對M,求得字典D1:?(2a)初始字典D;?(2b)利用結構相似SSIM求解訓練樣本對mp在字典D下的稀疏表示系數αp,其公式如下:?其中,λ1表示正則項參數,||||0表示向量的l0范數,S(mp,Dαp)用來度量mp和Dαp的結構相似性;?(2c)根據步驟(2b)分別求解訓練樣本對M各列向量在字典D下的稀疏表示系數,得到訓練樣本對M的稀疏系數α=[α1,...,αnum];?(2d)利用K?SVD的方法,按如下公式更新冗余字典D,并得到更新后的字典D1:?其中,D1=[Dh;Dl],Dh表示高分辨率字典,Dl表示對應的低分辨率字典;?(3)輸入一幅待處理的低分辨率圖像y,將低分辨率圖像y按照陣列式掃描方式,得到低分辨率圖像塊yi,其中,1≤i≤L,L表示圖像塊的數目,利用公式?求解得到低分辨圖像塊yi在低分辨率字典Dl下的稀疏表示系數β,式中,表示向量的l2范數,||||1表示向量的l1范數,F表示特征提取算子,用來提取圖像塊的特征,λ3表示正則項參數;?(4)利用高分辨率字典Dh及稀疏系數β,重建得到高分辨率圖像塊Xi=Dhβ;?(5)利用如下公式對高分辨率圖像塊Xi,進行信息融合,得到信息融合后的高分辨率圖像X′i:?其中,Z1表示對低分辨率圖像塊y1的插值圖像,S(Z1,X′i)表示Z1和X′i的結構相似性,S(Xi,X′i)表示Xi和X′i的結構相似性,λ4表示正則項參數;?(6)按照陣列式掃描方式依次將各個信息融合后的高分辨率圖像塊X′i放入各自對應的圖像位置中,得到高分辨率圖像X;?(7)對高分辨率圖像X,利用誤差補償,增強高頻信息,得到高頻信息增強后的高分辨圖像X*。?FDA00002780129200011.jpg,FDA00002780129200012.jpg,FDA00002780129200013.jpg,FDA00002780129200014.jpg,FDA00002780129200021.jpg...

    【技術特征摘要】
    1.一種基于字典學習和結構相似的圖像超分辨率重建方法,包括如下步驟: (O從樣本數據庫中采集訓練樣本對M= [Mh IM1] = Dn1,...,mnum],其中,Mh表示高分辨率樣本塊,M1表示對應的低分辨率樣本塊,mp表示M的第P列,I彡P彡num, num表示樣本對的數目; (2)利用結構相似SSM和K-SVD的方法,訓練步驟(I)的訓練樣本對M,求得字典D1: (2a)初始字典D ; (2b)利用結構相似SSIM求解訓練樣本對mp在字典D下的稀疏表示系數α ρ,其公式如下:2.根據權利I所述的基于字典學習和結構相似的圖像超分辨率重建方法,其特征在于:步驟(2b)中所述的利用結構相似SSIM求解訓...

    【專利技術屬性】
    技術研發人員:張小華焦李成劉偉馬文萍馬晶晶田小林朱虎明唐中和
    申請(專利權)人:西安電子科技大學
    類型:發明
    國別省市:

    網友詢問留言 已有0條評論
    • 還沒有人留言評論。發表了對其他瀏覽者有用的留言會獲得科技券。

    1
    主站蜘蛛池模板: 一本大道在线无码一区| 人妻av无码一区二区三区| 97性无码区免费| 亚洲国产精品无码久久98| AV无码久久久久不卡蜜桃| 久久亚洲精品无码网站| 东京热加勒比无码少妇| 无码毛片AAA在线| aⅴ一区二区三区无卡无码| 亚洲熟妇无码久久精品| 亚洲色偷拍区另类无码专区| 久久久久亚洲AV成人无码网站| 国产精品第一区揄拍无码| 亚洲AV无码1区2区久久| 国产精品无码MV在线观看| 中文字幕av无码一二三区电影| 国产亚洲?V无码?V男人的天堂 | 亚洲AV永久无码精品成人| 中文有码无码人妻在线| 亚洲国产精品无码久久久不卡| 黄色成人网站免费无码av| 人妻丰满熟妇AV无码片| 国产三级无码内射在线看| 国产亚洲精品无码拍拍拍色欲| 国产色无码精品视频国产| 中文字幕亚洲精品无码| 中文字幕无码免费久久99| 日韩精品无码一区二区三区免费| 久久久久无码国产精品不卡| 亚洲AV无码无限在线观看不卡| 亚洲国产成AV人天堂无码| 久久亚洲精品无码| 熟妇人妻AV无码一区二区三区| 国产AV无码专区亚洲AV毛网站| 中日精品无码一本二本三本| 亚洲午夜无码片在线观看影院猛 | 日韩放荡少妇无码视频| 亚洲精品无码久久久久牙蜜区| 亚洲精品无码久久久久A片苍井空| 99无码人妻一区二区三区免费| 亚洲一区无码中文字幕乱码|