System.ArgumentOutOfRangeException: 索引和長度必須引用該字符串內的位置。 參數名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 亚洲午夜无码久久久久,久久精品无码一区二区app,国产成人无码免费看片软件
  • 
    <ul id="o6k0g"></ul>
    <ul id="o6k0g"></ul>

    一種基于圖的視覺注意編碼方法技術

    技術編號:44511485 閱讀:0 留言:0更新日期:2025-03-07 13:08
    本發明專利技術公開了一種基于圖的視覺注意編碼方法,首先利用眼動設備采集受試者觀看視覺圖像時的眼動數據,對所觀看的圖像中的物體區域進行標注,根據標注的物體區域依次將落入同一標注物體區域的眼動注視點歸為一組,構成語義注視路徑,再通過統計每位受試者的語義注視路徑中在不同語義物體區域之間的注意轉移次數,構建視覺注意圖,并對獲視覺注意圖進行標準化處理,完成基于圖的視覺注意編碼,且可利用標準化視覺注意圖評估受試者的注意一致性。本發明專利技術的方法可以有效解決原始注視點路徑個體差異大的問題,具有計算簡單,效果好等特點,非常適合于對編碼群體的視覺行為。

    【技術實現步驟摘要】

    本專利技術屬于認知計算,具體涉及一種基于圖的視覺注意編碼方法


    技術介紹

    1、視覺注意在人類視覺系統通過與物理場景交互來執行視覺任務時,起著至關重要的作用。通過對人類眼動行為進行量化分析,可以識別不同狀態下的視覺注意行為模式,對人機交互等產品的設計具有重要意義。而在計算機視覺領域,大量研究通過設計算法來預測視覺注視點分布或掃視路徑,從而模擬人類觀察者在觀看場景時的視覺注意和行為。這些方法能有效提高類腦智能系統的性能并展現出一些類人的行為,在輔助駕駛、疲勞檢測等領域具有廣泛的應用前景。

    2、目前,大多數計算和分析方法是典型的注視點分布估計方法,如文獻“a.borjiand?l.itti,state-of-the-art?in?visual?attention?modeling.ieee?trans.patternanal.mach.intell.,vol.35,no.1,pp.185-207,2012”。其次,一些方法主要用于量化分析掃視路徑,如文獻“c.xia,j.han,and?d.zhang,evaluation?of?saccadic?scanpathprediction:subjective?assessment?database?and?recurrent?neural?network?basedmetric.ieee?trans.pattern?anal.mach.intell.,vol.43,no.12,pp.4378-4395,2020”。這些方法都基于人類觀察者收集的原始注視點數據或掃視路徑對視覺注意進行編碼,無法很好地捕捉到視覺注意的共同模式。且這些注意編碼方法因為不考慮所查看場景的物體語義信息,導致對注意編碼存在較大的個體差異,不能有效編碼人類的共同視覺注意行為。因此,基于眼動數據開發更穩定的視覺注意編碼方法以降低數據中的個體差異,對于提高視覺注意預測和注意行為識別具有重要意義。


    技術實現思路

    1、為解決上述技術問題,本專利技術提供了一種基于圖的視覺注意編碼方法,解決了現有方法不能有效編碼人類的共同視覺注意行為的問題。

    2、本專利技術采用的技術方案為:一種基于圖的視覺注意編碼方法,具體步驟如下:

    3、s1、利用眼動設備采集受試者眼動數據,即基于眼動儀記錄受試者在觀看視覺圖像過程中的眼動數據;

    4、其中,所述受試者人數大于等于3人。

    5、s2、視覺圖像物體區域標注,即對于呈現給受試者觀看的視覺圖像,采用開源工具手工標注圖像中包含的主要物體區域;

    6、其中,將圖像中屬于同一物體像素標記為同一區域,獲得圖像中所有物體區域的標注。

    7、s3、根據步驟s2標注的物體區域和步驟s1記錄的眼動數據構建語義注視路徑;

    8、對每一位受試者觀看視覺圖像時采集到的眼動數據,根據眼動儀記錄的眼動注視點時間順序,依次將落入同一標注物體區域的眼動注視點歸為一組,直至將所有注視點基于標注的物體區域依次分組后,獲得該受試者觀看當前視覺圖像的一個注視物體序列,即為語義注視路徑。

    9、s4、基于步驟s3,結合每一位受試者的語義注視路徑建立視覺注意圖;

    10、對于每一位受試者,基于步驟s3分別獲得每位受試者的語義注視路徑,統計每位受試者的語義注視路徑中在不同語義物體區域之間的注意轉移次數,并以每個物體區域為節點,以物體間注意轉移次數為邊的權重,構建一個有向加權圖,形成視覺注意圖。

    11、s5、對步驟s4得到的視覺注意圖進行標準化處理,完成基于圖的視覺注意編碼;

    12、針對步驟s4得到的視覺注意圖的每個節點,使用從該節點出發的每條邊的權重除以所有從該節點出發的邊的權重之和,獲得從該節點出發的邊的標準化權重;依次處理注意圖的所有節點,獲得標準化視覺注意圖。

    13、進一步地,所述視覺注意編碼方法還包括步驟s6,計算待評估受試者注意在標準化視覺注意圖上的得分,評估待評估受試者與構建標準化視覺注意圖所采集的受試者注意之間的一致性,具體如下:

    14、根據步驟s1到步驟s3的方法評估一名待評估受試者的注意情況,首先構建待評估受試者的語義注視路徑,查找待評估受試者的語義注視路徑上每一次注意轉移在步驟s5構建的標準化視覺注意圖上的邊權重。

    15、其中,當待評估受試者的語義注視路徑上注意轉移在標準化視覺注意圖中無對應邊時,該次注意轉移對應邊權重設置為零;當遍歷完待評估受試者的語義注視路徑上的所有注意轉移后,對查找到所有邊權重取平均值,作為待評估受試者的語義注視路徑在標準化視覺注意圖上的得分;該得分反應待評估受試者與構建標準化視覺注意圖所采集的受試者注意情況的一致程度。

    16、本專利技術的有益效果:本專利技術的方法首先利用眼動設備采集受試者觀看視覺圖像時的眼動數據,對所觀看的圖像中的物體區域進行標注,根據標注的物體區域依次將落入同一標注物體區域的眼動注視點歸為一組,構成語義注視路徑,再通過統計每位受試者的語義注視路徑中在不同語義物體區域之間的注意轉移次數,構建視覺注意圖,并對獲視覺注意圖進行標準化處理,完成基于圖的視覺注意編碼,且可利用標準化視覺注意圖評估受試者的注意一致性。本專利技術的方法可以有效解決原始注視點路徑個體差異大的問題,具有計算簡單,效果好等特點,非常適合于對編碼群體的視覺行為。

    本文檔來自技高網...

    【技術保護點】

    1.一種基于圖的視覺注意編碼方法,具體步驟如下:

    2.根據權利要求1所述的一種基于圖的視覺注意編碼方法,其特征在于,所述視覺注意編碼方法還包括步驟S6,計算待評估受試者注意在標準化視覺注意圖上的得分,評估待評估受試者與構建標準化視覺注意圖所采集的受試者注意之間的一致性,具體如下:

    【技術特征摘要】

    1.一種基于圖的視覺注意編碼方法,具體步驟如下:

    2.根據權利要求1所述的一種基于圖的視覺注意編碼方法,其特征在于,所述視覺注意編碼方...

    【專利技術屬性】
    技術研發人員:楊開富李永杰
    申請(專利權)人:電子科技大學
    類型:發明
    國別省市:

    網友詢問留言 已有0條評論
    • 還沒有人留言評論。發表了對其他瀏覽者有用的留言會獲得科技券。

    1
    主站蜘蛛池模板: 少妇久久久久久人妻无码| 国产精品成人无码久久久| 久久久久亚洲?V成人无码| 亚洲中文字幕无码日韩| 亚洲综合无码AV一区二区| 亚洲av无码不卡久久| 亚洲AV无码乱码在线观看性色扶| 亚洲av无码专区在线| 亚洲AV综合色区无码一区爱AV| 精品久久久久久无码人妻中文字幕 | 亚洲av无码专区青青草原| 亚洲?V无码乱码国产精品| 久久久久久国产精品无码超碰| 免费无码国产V片在线观看| av无码国产在线看免费网站| 一本一道av中文字幕无码| 国产在线无码视频一区| 亚洲国产精品无码观看久久| 久久久无码中文字幕久...| 人妻丝袜无码专区视频网站| 无码国产激情在线观看| 久久久久亚洲Av片无码v| 在线播放无码后入内射少妇| 国产综合无码一区二区三区| 色综合色国产热无码一| 亚洲av无码有乱码在线观看| 无码人妻一区二区三区在线视频| 国产AV无码专区亚洲AWWW| 久久久久久av无码免费看大片| 无码av中文一区二区三区桃花岛| 18禁免费无码无遮挡不卡网站| 亚洲AV无码专区国产乱码电影 | 无码成人AAAAA毛片| 直接看的成人无码视频网站| 无码人妻一区二区三区免费n鬼沢| 亚洲AV无码一区二区三区DV| 国产精品无码无在线观看| 亚洲精品无码永久在线观看你懂的 | 亚洲人成无码网站| 亚洲日产无码中文字幕| 亚洲AV日韩AV永久无码绿巨人|