• 
    <ul id="o6k0g"></ul>
    <ul id="o6k0g"></ul>

    一種基于深度學習的醫學影像頸動脈血管分割方法和系統技術方案

    技術編號:36692892 閱讀:35 留言:0更新日期:2023-02-27 20:02
    本發明專利技術涉及一種基于深度學習的醫學影像頸動脈血管分割算法和系統,所述方法通過對原始頸部醫學影像數據的獲取和預處理后,輸入預訓練的醫學影像頸動脈血管檢測網絡進行血管定位,生成頸動脈血管定位框;然后將定位框對應的部分頸部醫學影像,輸入預訓練的醫學影像頸動脈血管分割網絡進行血管分割,生成頸動脈血管分割結果;最后將頸動脈血管分割結果和原始頸部醫學影像數據進行可視化展示。與現有技術相比,本發明專利技術具有分割準確性高的優點。本發明專利技術具有分割準確性高的優點。本發明專利技術具有分割準確性高的優點。

    【技術實現步驟摘要】
    一種基于深度學習的醫學影像頸動脈血管分割方法和系統


    [0001]本專利技術涉及圖像處理
    ,尤其是涉及一種基于深度學習的醫學影像頸動脈血管分割方法和系統。

    技術介紹

    [0002]頸動脈CTA(Computed Tomography Angiography,計算機斷層掃描血管造影術)影像中血管的提取,主要包括頸動脈中心路徑的提取以及頸動脈的分割,這是從復雜數據集中精確顯示和量化頸動脈的關鍵步驟,同時也是腦血管類疾病,如狹窄、斑塊、動脈瘤診斷和手術規劃的前提,對于臨床診斷結果的評估至關重要。
    [0003]現有的基于CTA圖像的頸動脈自動分割研究顯示,利用二維多層面圖像訓練的二維卷積網絡D
    ?
    SEA UNet可以實現頸動脈血管的分割。另一項基于MRA圖像的頸動脈自動分割研究顯示,利用二維圖像訓練的二維卷積網絡UNet可以實現頸動脈血管的分割。以上研究均僅基于二維卷積網絡進行分割,對于三維信息學習不足。
    [0004]經過檢索,中國專利申請公布號為CN114519722A,公開了一種基于卷積神經網絡的頸動脈提取方法,其提出的模型根據給定頸動脈中心路徑種子點,進行補丁切取和追蹤,并輸入三維神經網絡,實現頸動脈血管分割。但是,該技術存在需要人工給定種子點,未實現全自動的頸動脈分割流程的局限性。

    技術實現思路

    [0005]本專利技術的目的就是為了克服上述現有技術存在的缺陷而提供了一種全自動定位分割、分割效率高的基于深度學習的醫學影像頸動脈血管分割方法和系統。
    [0006]本專利技術的目的可以通過以下技術方案來實現:
    [0007]根據本專利技術的第一方面,提供了一種基于深度學習的醫學影像頸動脈血管分割方法,該方法包括以下步驟:
    [0008]步驟S1、數據采集:獲取原始頸部醫學影像數據I1;
    [0009]步驟S2、數據預處理:原始頸部醫學影像數據I1經過第一預處理過程P1后,得到統一標準的第二頸部醫學影像數據I2;將第二頸部醫學影像數據I2經過第二預處理過程P2,得到歸一化的第三頸部醫學影像數據I3;
    [0010]步驟S3、血管定位:將第三頸部醫學影像數據I3輸入預訓練的第一基于注意力機制的U
    ?
    Net網絡進行血管定位,得到血管定位坐標A1;
    [0011]步驟S4、血管分割:將血管定位坐標A1、第二頸部醫學影像數據I2與第三頸部醫學影像數據I3,經過第一數據后處理過程P3后,得到第四頸部醫學影像數據I4;將第四頸部醫學影像數據I4輸入預訓練的第二基于注意力機制的U
    ?
    Net網絡進行血管分割,得到血管分割結果A2;
    [0012]步驟S5、可視化處理:結合血管分割結果A2、原始頸部醫學影像數據I1和第二頸部醫學影像數據I2,經過第二數據后處理過程P4,得到頸部醫學影像與頸動脈血管分割結合影
    像I5,用于可視化展示。
    [0013]優選地,所述步驟S1中的原始頸部醫學影像數據I1為CTA數據。
    [0014]優選地,所述步驟S2中第一預處理過程P1,具體為:
    [0015]步驟S201、對不同像素間距和圖像尺寸的原始頸部醫學影像I1進行重采樣;其中,所述重采樣的插值模式為最近鄰插值;
    [0016]步驟S202、對重采樣后的頸部醫學影像進行中心裁剪或周圍填充,得到統一標準的第二頸部醫學影像數據I2;其中,所述中心裁切中Z軸方向不做處理,所述周圍填充為常數值填充,常數值為輸入數據最小值;
    [0017]所述第二預處理過程P2,具體為:
    [0018]步驟S211、將第二頸部醫學影像數據I2降采樣到H1×
    W1×
    Z1的尺寸,其中,所述降采樣中的插值模式為最近鄰插值;
    [0019]步驟S212、對降采樣后的影像數據進行歸一化,具體為:將強度數值在區間[a,b]的體素點,線性映射到[0,1]區間;強度數值小于a的體素點,設為0;強度數值大于b的體素點,設為0。
    [0020]優選地,所述步驟S4中的第一數據后處理過程P3,具體為:
    [0021]步驟S401、在第三頸部醫學影像數據I3中提取血管定位坐標A1對應的圖像區域R1;
    [0022]步驟S402、對圖像區域R1進行重采樣,得到與第二頸部醫學影像數據I2同空間的坐標A
    ’1;其中,所述重采樣的插值模式為最近鄰插值;
    [0023]步驟S403、在第二頸部醫學影像數據I2中提取坐標A
    ’1對應的圖像區域,即為第四頸部醫學影像數據I4。
    [0024]優選地,所述步驟S3或步驟S4中的基于注意力機制的U
    ?
    Net網絡包括注意力門模塊,融合模塊,以及依次連接的第一卷積模塊、第一激活模塊、第一下采樣模塊、第二卷積模塊、第二激活模塊、第二下采樣模塊、第三卷積模塊、第三激活模塊、第三下采樣模塊、第四卷積模塊和第四激活模塊、第一上采樣模塊、第五卷積模塊、第五激活模塊、第二上采樣模塊、第六卷積模塊、第六激活模塊、第三上采樣模塊、第七卷積模塊和第七激活模塊;
    [0025]所述第三激活模塊的輸出、第四激活模塊的輸出分別輸入至注意力門模塊,注意力門模塊的輸出與第一上采樣模塊的輸出通過融合模塊融合后作為第五卷積模塊的輸入;所述第二激活模塊的輸出、第五激活模塊的輸出分別輸入至注意力門模塊,注意力門模塊的輸出與第二上采樣模塊的輸出通過融合模塊融合后作為第六卷積模塊的輸入;所述第一激活模塊的輸出、第六激活模塊的輸出分別輸入至注意力門模塊,注意力門模塊的輸出與第三個上采樣模塊的輸出通過融合模塊融合后作為第五卷積模塊的輸入。
    [0026]優選地,所述注意力門模塊包括第八卷積模塊、第九卷積模塊、第八激活模塊、第十卷積模塊和第九激活模塊;所述第八卷積模塊的輸入為門信號,所述第九卷積模塊的輸入為待處理的特征圖,疊加所述第八卷積模塊和第九卷積模塊的輸出信號后,依次經過第八激活模塊、第十卷積模塊和第九激活模塊,將輸出的特征圖結果再與原待處理的特征圖進行對應位置元素相乘得到最終處理后的特征圖。
    [0027]優選地,所述步驟S3或步驟S4中的基于注意力機制的U
    ?
    Net網絡的預訓練過程包括:
    [0028]1)獲取訓練集、驗證集數據和對應標簽;
    [0029]2)將訓練集數據作為一個通道輸入網絡,同時設定超參數值;其中,超參數值包括批處理樣本數、最大訓練周期、初始學習率、學習率優化器和損失函數;
    [0030]3)計算訓練集數據的網絡輸出結果與對應標簽的損失函數值;
    [0031]4)根據損失函數結果調整網絡模型中的參數值;
    [0032]5)當訓練集數據輸入訓練完成一部分周期后,輸入驗證集數據和標簽;
    [0033]6)計算驗證集數據的網絡輸出結果與對應標簽的損失函數值;
    [0034]7)根據損失函數結果調整網絡模型的超參數值;
    [0035]8)重復步驟2)
    ?
    7),直到3)和6)中的損失函數值收斂且本文檔來自技高網
    ...

    【技術保護點】

    【技術特征摘要】
    1.一種基于深度學習的醫學影像頸動脈血管分割方法,其特征在于,該方法包括以下步驟:步驟S1、數據采集:獲取原始頸部醫學影像數據I1;步驟S2、數據預處理:原始頸部醫學影像數據I1經過第一預處理過程P1后,得到統一標準的第二頸部醫學影像數據I2;將第二頸部醫學影像數據I2經過第二預處理過程P2,得到歸一化的第三頸部醫學影像數據I3;步驟S3、血管定位:將第三頸部醫學影像數據I3輸入預訓練的第一基于注意力機制的U
    ?
    Net網絡進行血管定位,得到血管定位坐標A1;步驟S4、血管分割:將血管定位坐標A1、第二頸部醫學影像數據I2與第三頸部醫學影像數據I3,經過第一數據后處理過程P3后,得到第四頸部醫學影像數據I4;將第四頸部醫學影像數據I4輸入預訓練的第二基于注意力機制的U
    ?
    Net網絡進行血管分割,得到血管分割結果A2;步驟S5、可視化處理:結合血管分割結果A2、原始頸部醫學影像數據I1和第二頸部醫學影像數據I2,經過第二數據后處理過程P4,得到頸部醫學影像與頸動脈血管分割結合影像I5,用于可視化展示。2.根據權利要求1所述的一種基于深度學習的醫學影像頸動脈血管分割方法,其特征在于,所述步驟S1中的原始頸部醫學影像數據I1為CTA數據。3.根據權利要求1所述的一種基于深度學習的醫學影像頸動脈血管分割方法,其特征在于,所述步驟S2中第一預處理過程P1,具體為:步驟S201、對不同像素間距和圖像尺寸的原始頸部醫學影像I1進行重采樣;其中,所述重采樣的插值模式為最近鄰插值;步驟S202、對重采樣后的頸部醫學影像進行中心裁剪或周圍填充,得到統一標準的第二頸部醫學影像數據I2;其中,所述中心裁切中Z軸方向不做處理,所述周圍填充為常數值填充,常數值為輸入數據最小值;所述第二預處理過程P2,具體為:步驟S211、將第二頸部醫學影像數據I2降采樣到H1×
    W1×
    Z1的尺寸,其中,所述降采樣中的插值模式為最近鄰插值;步驟S212、對降采樣后的影像數據進行歸一化,具體為:將強度數值在區間[a,b]的體素點,線性映射到[0,1]區間;強度數值小于a的體素點,設為0;強度數值大于b的體素點,設為0。4.根據權利要求1所述的一種基于深度學習的醫學影像頸動脈血管分割方法,其特征在于,所述步驟S4中的第一數據后處理過程P3,具體為:步驟S401、在第三頸部醫學影像數據I3中提取血管定位坐標A1對應的圖像區域R1;步驟S402、對圖像區域R1進行重采樣,得到與第二頸部醫學影像數據I2同空間的坐標A
    ’1;其中,所述重采樣的插值模式為最近鄰插值;步驟S403、在第二頸部醫學影像數據I2中提取坐標A
    ’1對應的圖像區域,即為第四頸部醫學影像數據I4。5.根據權利要求1所述的一種基于深度學習的醫學影像頸動脈血管分割方法,其特征在于,所述步驟S3或步驟S4中的基于注意力機制的U
    ?
    Net網絡包括注意力門模塊,融合模
    塊,以及依次連接的第一卷積模塊、第一激活模塊、第一下采樣模塊、第二卷積模塊、第二激活模塊、第二下采樣模塊、第三卷積模塊、第三激活模塊、第三下采樣模塊、第四卷積模塊和第四激活模塊、第一上采樣模塊、第五卷積模塊、第五激活模塊、第二上采樣模塊、第六卷積模塊、第六激活模塊、第三上采樣模塊、第七卷積模塊和第七激活模塊;所述第三激活模塊的輸出、第四激活模塊的輸出分別輸入至注意力門模塊,注意力門模塊的輸出與第一上采樣模塊的輸出通過融合模塊融合后作為第五卷積模塊的輸入;所述第二...

    【專利技術屬性】
    技術研發人員:楊麗琴羅嘯耿道穎胡斌周書怡李郁欣
    申請(專利權)人:光華臨港工程應用技術研發上海有限公司
    類型:發明
    國別省市:

    網友詢問留言 已有0條評論
    • 還沒有人留言評論。發表了對其他瀏覽者有用的留言會獲得科技券。

    1
    主站蜘蛛池模板: 欧洲无码一区二区三区在线观看| 无码人妻黑人中文字幕| 亚洲另类无码专区首页| 精品无码专区亚洲| 亚洲免费无码在线| 免费A级毛片无码无遮挡内射| 色综合热无码热国产| 无码无套少妇毛多18p| 高清无码一区二区在线观看吞精 | 亚洲av日韩av无码av| 亚洲国产精品无码久久九九大片| 成人无码a级毛片免费| 蜜臀亚洲AV无码精品国产午夜.| 国产精品无码无片在线观看 | 无码狠狠躁久久久久久久| 亚洲欧洲无码AV电影在线观看| 国产精品午夜无码AV天美传媒| 亚洲中文无码a∨在线观看| 中文字幕无码毛片免费看| 国产午夜激无码av毛片| 天堂一区人妻无码| 亚洲一区无码中文字幕乱码| 国产色无码专区在线观看| 亚洲熟妇少妇任你躁在线观看无码| 亚洲av无码国产综合专区| 精品日韩亚洲AV无码| 无码人妻精品一区二区三区东京热 | 亚洲成av人片天堂网无码】| 久久久久无码精品亚洲日韩| 久久无码一区二区三区少妇 | 熟妇人妻无码xxx视频| 中字无码av电影在线观看网站| 亚洲一区二区三区国产精品无码| 国产成人无码综合亚洲日韩| 狠狠躁夜夜躁无码中文字幕| 八戒理论片午影院无码爱恋| 中文字幕无码日韩专区免费| 亚洲av无码不卡一区二区三区| 亚洲av中文无码乱人伦在线咪咕| 亚洲av无码一区二区三区不卡| 亚洲精品无码成人AAA片|