• 
    <ul id="o6k0g"></ul>
    <ul id="o6k0g"></ul>

    行人重識別方法及系統技術方案

    技術編號:22387966 閱讀:132 留言:0更新日期:2019-10-29 06:41
    本發明專利技術提供了一種行人重識別方法及系統,該行人重識別方法包括:通過行人分析網絡對輸入圖像進行行人分析,提取輸入圖像中的行人的細粒度特征;將細粒度特征與行人重識別網絡模型的卷積層輸出的輸入圖像的行人特征融合;根據融合后的行人特征,識別輸入圖像中的行人。通過將行人分析網絡提取的細粒度特征與行人重識別網絡提取的行人特征結合,可以提高行人特征的辨識度,提高行人識別的準確率。

    Pedestrian recognition method and system

    【技術實現步驟摘要】
    行人重識別方法及系統
    本專利技術涉及行人重識別
    ,具體涉及一種行人重識別方法及系統。
    技術介紹
    行人重識別(PersonRe-identification,ReID)是利用計算機視覺技術判斷圖像或者視頻序列中是否存在特定行人的技術。廣泛被認為是一個圖像檢索的子問題,即給定一個監控行人圖像,檢索跨設備下的該行人圖像。現有的行人重識別技術之中,都是將行人分割成不同的塊,針對每一個塊提取特征,然后進行分類,得到最終的結果,這樣可能引入背景信息,并沒有達到精確的提取人體的特征。
    技術實現思路
    有鑒于此,本專利技術實施例提供了一種行人重識別方法及系統,能夠精確提取圖像中的行人特征,增加行人特征的辨識度,提高行人識別的準確率。根據本專利技術實施例的第一方面,提供一種行人重識別方法,包括:通過行人分析網絡對輸入圖像進行行人分析,提取輸入圖像中的行人的細粒度特征;將細粒度特征與行人重識別網絡模型的卷積層輸出的輸入圖像的行人特征融合;根據融合后的行人特征,識別輸入圖像中的行人。在本專利技術的一個實施例中,行人重識別網絡模型包括多粒度網絡模型,多粒度網絡模型包括五層卷積神經網絡、最大池化層、卷積層和全連接層,其中,五層卷積神經網絡的第四層和第五層被劃分為三個分支:全局分支、上下身分支和上中下身分支,其中,上述通過行人分析網絡對輸入圖像進行行人分析,提取輸入圖像中的行人的細粒度特征,包括:通過行人分析網絡將輸入圖像分割成上下身區域和上中下身區域;分別提取上下身區域中每個區域的第一細粒度特征,以及上中下身區域中每個區域的第二細粒度特征,其中,上述將細粒度特征與行人重識別網絡模型的卷積層輸出的輸入圖像中的行人特征融合,包括:利用全連接層,將上下身區域中每個區域的第一細粒度特征分別與多粒度網絡模型的卷積層輸出的上下身分支中對應分支的第一局部特征融合;以及利用全連接層,將上中下身區域中每個區域的第二細粒度特征分別與多粒度網絡模型的卷積層輸出的上中下身分支中對應分支的第二局部特征融合,其中,上述根據融合后的行人特征,識別輸入圖像中的行人,包括:將三個分支中每個分支的輸出特征進行合并,根據合并后的行人特征,識別輸入圖像中的行人,其中,合并后的行人特征包括融合后的行人特征。在本專利技術的一個實施例中,卷積層包括1×1卷積層,多粒度網絡模型的最大池化層輸出的2048維行人特征通過1×1卷積層降為256維,其中,上述利用全連接層,將上下身區域中每個區域的第一細粒度特征分別與多粒度網絡模型的卷積層輸出的上下身分支中對應分支的第一局部特征融合,包括:通過1×1卷積層使第一細粒度特征降為256維;將256維的第一細粒度特征與256維的第一局部特征加權融合,得到融合后的第一局部特征,其中,上述利用全連接層,將上中下身區域中每個區域的第二細粒度特征分別與多粒度網絡模型的卷積層輸出的上中下身分支中對應分支的第二局部特征融合,包括:通過1×1卷積層使第二細粒度特征降為256維;將256維的第二細粒度特征與256維的第二局部特征加權融合,得到融合后的第二局部特征。在本專利技術的一個實施例中,該行人重識別方法還包括:采用三元組損失函數與交叉熵損失函數訓練多粒度網絡模型。在本專利技術的一個實施例中,上述采用三元組損失函數與交叉熵損失函數訓練多粒度網絡模型,包括:在一個訓練回合中,全局分支、上下身分支和上中下身分支的最大池化層輸出的2048維全局特征采用三元組損失函數,卷積層輸出的256維全局特征采用交叉熵損失函數,上下身分支和上中下身分支的融合后的第一局部特征和第二局部特征采用交叉熵損失函數來訓練多粒度網絡模型;在另一個訓練回合中,全局分支、上下身分支和上中下身分支的最大池化層輸出的2048維全局特征與卷積層輸出的256維全局特征均采用交叉熵損失函數,上下身分支和上中下身分支的融合后的第一局部特征和第二局部特征均采用交叉熵損失函數來訓練多粒度網絡模型。在本專利技術的一個實施例中,多粒度網絡模型以Resnet50為主干,卷積層為降維壓縮層,最大池化層包括全局最大池化層。在本專利技術的一個實施例中,上述細粒度特征包括人體的衣物部件和/或身體輪廓。根據本專利技術實施例的第二方面,提供一種行人重識別系統,包括:提取模塊,用于通過行人分析網絡對輸入圖像進行行人分析,提取輸入圖像中的行人的細粒度特征;融合模塊,用于將細粒度特征與行人重識別網絡模型的卷積層輸出的輸入圖像的行人特征融合;識別模塊,用于根據融合后的行人特征,識別輸入圖像中的行人。根據本專利技術實施例的第三方面,提供一種計算機可讀存儲介質,其上存儲有計算機可執行指令,可執行指令被處理器執行時實現如上所述的行人重識別方法。根據本專利技術實施例提供的技術方案,通過行人分析網絡對輸入圖像進行行人分析,提取輸入圖像中的行人的細粒度特征;將細粒度特征與行人重識別網絡模型的卷積層輸出的輸入圖像的行人特征融合;根據融合后的行人特征,識別輸入圖像中的行人。通過將行人分析網絡提取的細粒度特征與行人重識別網絡提取的行人特征結合,可以提高行人特征的辨識度,提高行人識別的準確率。附圖說明為了更清楚地說明本專利技術實施例中的技術方案,下面將對實施例描述中所需要使用的附圖作簡單地介紹,顯而易見地,下面描述中的附圖僅僅是本專利技術的一些實施例,對于本領域普通技術人員來講,在不付出創造性勞動的前提下,還可以根據這些附圖獲得其他的附圖。圖1所示為本專利技術一實施例提供的行人重識別方法的流程示意圖。圖2所示為本專利技術一實施例提供的網絡框架圖。圖3所示為本專利技術一實施例提供的行人重識別系統的框圖。圖4所示為本專利技術另一實施例提供的行人重識別系統的框圖。具體實施方式下面將結合本專利技術實施例中的附圖,對本專利技術實施例中的技術方案進行清楚、完整地描述,顯然,所描述的實施例僅是本專利技術一部分實施例,而不是全部的實施例。基于本專利技術中的實施例,本領域普通技術人員在沒有做出創造性勞動前提下所獲得的所有其他實施例,都屬于本專利技術保護的范圍。圖1所示為本專利技術一實施例提供的行人重識別方法的流程示意圖。該方法可以由計算機設備(例如,服務器)執行。如圖1所示,該方法包括如下內容。S110:通過行人分析網絡對輸入圖像進行行人分析,提取輸入圖像中的行人的細粒度特征。具體地,行人分析網絡利用人體解析技術提取圖像的細粒度特征,細粒度特征可以包括人體的衣物部件和/或身體輪廓等,本專利技術對此不作限定。人體解析是指將在圖像中捕獲的人分割成多個語義上一致的區域,例如身體部位和衣物。人體解析是一種細粒度的語義分割任務,它比僅是尋找人體輪廓的人物分割更具挑戰性。人體解析對于以人為中心的分析非常重要,并且具有許多工業上的應用,例如,虛擬現實,視頻監控和人類行為分析等等。S120:將細粒度特征與行人重識別網絡模型的卷積層輸出的輸入圖像的行人特征融合。將通過行人分析網絡提取的細粒度特征與行人重識別網絡提取的行人特征結合,可以增加行人特征的辨識度。應當理解,可以是輸入圖像的全局細粒度特征與行人重識別網絡模型提取的全局行人特征進行融合,也可以是輸入圖像的局部細粒度特征與行人重識別網絡模型提取的對應的局部行人特征進行融合,本專利技術對此不作限定。行人重識別網絡可以基于卷積神經網絡,也可以基于多粒度網絡,本專利技術對此不作限定。例如,多粒度網絡以Resnet50為主干,卷積本文檔來自技高網...

    【技術保護點】
    1.一種行人重識別方法,其特征在于,包括:通過行人分析網絡對輸入圖像進行行人分析,提取所述輸入圖像中的行人的細粒度特征;將所述細粒度特征與行人重識別網絡模型的卷積層輸出的所述輸入圖像的行人特征融合;根據融合后的行人特征,識別所述輸入圖像中的行人。

    【技術特征摘要】
    1.一種行人重識別方法,其特征在于,包括:通過行人分析網絡對輸入圖像進行行人分析,提取所述輸入圖像中的行人的細粒度特征;將所述細粒度特征與行人重識別網絡模型的卷積層輸出的所述輸入圖像的行人特征融合;根據融合后的行人特征,識別所述輸入圖像中的行人。2.如權利要求1所述的行人重識別方法,其特征在于,所述行人重識別網絡模型包括多粒度網絡模型,所述多粒度網絡模型包括五層卷積神經網絡、最大池化層、所述卷積層和全連接層,其中,所述五層卷積神經網絡的第四層和第五層被劃分為三個分支:全局分支、上下身分支和上中下身分支,其中,所述通過行人分析網絡對輸入圖像進行行人分析,提取所述輸入圖像中的行人的細粒度特征,包括:通過所述行人分析網絡將所述輸入圖像分割成上下身區域和上中下身區域;分別提取所述上下身區域中每個區域的第一細粒度特征,以及所述上中下身區域中每個區域的第二細粒度特征,其中,所述將所述細粒度特征與行人重識別網絡模型的卷積層輸出的所述輸入圖像中的行人特征融合,包括:利用所述全連接層,將所述上下身區域中每個區域的所述第一細粒度特征分別與所述多粒度網絡模型的所述卷積層輸出的所述上下身分支中對應分支的第一局部特征融合;以及利用所述全連接層,將所述上中下身區域中每個區域的所述第二細粒度特征分別與所述多粒度網絡模型的所述卷積層輸出的所述上中下身分支中對應分支的第二局部特征融合,其中,所述根據融合后的行人特征,識別所述輸入圖像中的行人,包括:將所述三個分支中每個分支的輸出特征進行合并,根據合并后的行人特征,識別輸入圖像中的行人,其中,所述合并后的行人特征包括所述融合后的行人特征。3.如權利要求2所述的行人重識別方法,其特征在于,所述卷積層包括1×1卷積層,所述多粒度網絡模型的所述最大池化層輸出的2048維行人特征通過所述1×1卷積層降為256維,其中,所述利用所述全連接層,將所述上下身區域中每個區域的所述第一細粒度特征分別與所述多粒度網絡模型的所述卷積層輸出的所述上下身分支中對應分支的第一局部特征融合,包括:通過所述1×1卷積層使所述第一細粒度特征降為256維;將256維的所述第一細粒度特征與256維的第一局部特征加權融合,得到融...

    【專利技術屬性】
    技術研發人員:張韻東任麗云劉小濤
    申請(專利權)人:北京中星微電子有限公司
    類型:發明
    國別省市:北京,11

    網友詢問留言 已有0條評論
    • 還沒有人留言評論。發表了對其他瀏覽者有用的留言會獲得科技券。

    1
    主站蜘蛛池模板: 精品久久久久久无码人妻中文字幕 | 亚洲日韩欧洲无码av夜夜摸| 国产亚洲精久久久久久无码| 国产免费AV片无码永久免费| 精品无码久久久久久久动漫| 亚洲成av人片在线观看天堂无码| 精品多人p群无码| av无码国产在线看免费网站| 无码免费午夜福利片在线| 国产v亚洲v天堂无码网站| 67194成l人在线观看线路无码| 日韩精品无码一区二区视频| 久久无码人妻一区二区三区| 国产午夜av无码无片久久96| 一本色道无码道在线观看| 国产成人无码网站| 无码国产精品一区二区免费16| 天堂Av无码Av一区二区三区| 人妻少妇精品无码专区漫画| 亚洲精品无码久久久久sm| 久久水蜜桃亚洲AV无码精品| 久久国产精品无码HDAV| 国产AV无码专区亚洲AV漫画| 国产高清不卡无码视频| 亚洲精品无码久久久久A片苍井空 亚洲精品无码久久久久YW | 亚洲国产成人无码AV在线| 亚洲AV综合色区无码一区爱AV | 在人线av无码免费高潮喷水| 无码国产精品一区二区免费16| 久久无码AV中文出轨人妻| 欧洲成人午夜精品无码区久久| 无码人妻精品一区二区三| 久久久久亚洲AV片无码下载蜜桃| 少妇无码一区二区二三区| 日本无码一区二区三区白峰美 | 亚洲成av人无码亚洲成av人 | 在线看片无码永久免费视频| 精品久久久无码人妻中文字幕豆芽 | 蜜桃AV无码免费看永久| 无码乱码观看精品久久| AV无码人妻中文字幕|