System.ArgumentOutOfRangeException: 索引和長度必須引用該字符串內的位置。 參數名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 亚洲午夜无码久久久久,久久精品无码一区二区app,国产成人无码免费看片软件
  • 
    <ul id="o6k0g"></ul>
    <ul id="o6k0g"></ul>

    一種基于圖的視覺注意編碼方法技術

    技術編號:44511485 閱讀:0 留言:0更新日期:2025-03-07 13:08
    本發明專利技術公開了一種基于圖的視覺注意編碼方法,首先利用眼動設備采集受試者觀看視覺圖像時的眼動數據,對所觀看的圖像中的物體區域進行標注,根據標注的物體區域依次將落入同一標注物體區域的眼動注視點歸為一組,構成語義注視路徑,再通過統計每位受試者的語義注視路徑中在不同語義物體區域之間的注意轉移次數,構建視覺注意圖,并對獲視覺注意圖進行標準化處理,完成基于圖的視覺注意編碼,且可利用標準化視覺注意圖評估受試者的注意一致性。本發明專利技術的方法可以有效解決原始注視點路徑個體差異大的問題,具有計算簡單,效果好等特點,非常適合于對編碼群體的視覺行為。

    【技術實現步驟摘要】

    本專利技術屬于認知計算,具體涉及一種基于圖的視覺注意編碼方法


    技術介紹

    1、視覺注意在人類視覺系統通過與物理場景交互來執行視覺任務時,起著至關重要的作用。通過對人類眼動行為進行量化分析,可以識別不同狀態下的視覺注意行為模式,對人機交互等產品的設計具有重要意義。而在計算機視覺領域,大量研究通過設計算法來預測視覺注視點分布或掃視路徑,從而模擬人類觀察者在觀看場景時的視覺注意和行為。這些方法能有效提高類腦智能系統的性能并展現出一些類人的行為,在輔助駕駛、疲勞檢測等領域具有廣泛的應用前景。

    2、目前,大多數計算和分析方法是典型的注視點分布估計方法,如文獻“a.borjiand?l.itti,state-of-the-art?in?visual?attention?modeling.ieee?trans.patternanal.mach.intell.,vol.35,no.1,pp.185-207,2012”。其次,一些方法主要用于量化分析掃視路徑,如文獻“c.xia,j.han,and?d.zhang,evaluation?of?saccadic?scanpathprediction:subjective?assessment?database?and?recurrent?neural?network?basedmetric.ieee?trans.pattern?anal.mach.intell.,vol.43,no.12,pp.4378-4395,2020”。這些方法都基于人類觀察者收集的原始注視點數據或掃視路徑對視覺注意進行編碼,無法很好地捕捉到視覺注意的共同模式。且這些注意編碼方法因為不考慮所查看場景的物體語義信息,導致對注意編碼存在較大的個體差異,不能有效編碼人類的共同視覺注意行為。因此,基于眼動數據開發更穩定的視覺注意編碼方法以降低數據中的個體差異,對于提高視覺注意預測和注意行為識別具有重要意義。


    技術實現思路

    1、為解決上述技術問題,本專利技術提供了一種基于圖的視覺注意編碼方法,解決了現有方法不能有效編碼人類的共同視覺注意行為的問題。

    2、本專利技術采用的技術方案為:一種基于圖的視覺注意編碼方法,具體步驟如下:

    3、s1、利用眼動設備采集受試者眼動數據,即基于眼動儀記錄受試者在觀看視覺圖像過程中的眼動數據;

    4、其中,所述受試者人數大于等于3人。

    5、s2、視覺圖像物體區域標注,即對于呈現給受試者觀看的視覺圖像,采用開源工具手工標注圖像中包含的主要物體區域;

    6、其中,將圖像中屬于同一物體像素標記為同一區域,獲得圖像中所有物體區域的標注。

    7、s3、根據步驟s2標注的物體區域和步驟s1記錄的眼動數據構建語義注視路徑;

    8、對每一位受試者觀看視覺圖像時采集到的眼動數據,根據眼動儀記錄的眼動注視點時間順序,依次將落入同一標注物體區域的眼動注視點歸為一組,直至將所有注視點基于標注的物體區域依次分組后,獲得該受試者觀看當前視覺圖像的一個注視物體序列,即為語義注視路徑。

    9、s4、基于步驟s3,結合每一位受試者的語義注視路徑建立視覺注意圖;

    10、對于每一位受試者,基于步驟s3分別獲得每位受試者的語義注視路徑,統計每位受試者的語義注視路徑中在不同語義物體區域之間的注意轉移次數,并以每個物體區域為節點,以物體間注意轉移次數為邊的權重,構建一個有向加權圖,形成視覺注意圖。

    11、s5、對步驟s4得到的視覺注意圖進行標準化處理,完成基于圖的視覺注意編碼;

    12、針對步驟s4得到的視覺注意圖的每個節點,使用從該節點出發的每條邊的權重除以所有從該節點出發的邊的權重之和,獲得從該節點出發的邊的標準化權重;依次處理注意圖的所有節點,獲得標準化視覺注意圖。

    13、進一步地,所述視覺注意編碼方法還包括步驟s6,計算待評估受試者注意在標準化視覺注意圖上的得分,評估待評估受試者與構建標準化視覺注意圖所采集的受試者注意之間的一致性,具體如下:

    14、根據步驟s1到步驟s3的方法評估一名待評估受試者的注意情況,首先構建待評估受試者的語義注視路徑,查找待評估受試者的語義注視路徑上每一次注意轉移在步驟s5構建的標準化視覺注意圖上的邊權重。

    15、其中,當待評估受試者的語義注視路徑上注意轉移在標準化視覺注意圖中無對應邊時,該次注意轉移對應邊權重設置為零;當遍歷完待評估受試者的語義注視路徑上的所有注意轉移后,對查找到所有邊權重取平均值,作為待評估受試者的語義注視路徑在標準化視覺注意圖上的得分;該得分反應待評估受試者與構建標準化視覺注意圖所采集的受試者注意情況的一致程度。

    16、本專利技術的有益效果:本專利技術的方法首先利用眼動設備采集受試者觀看視覺圖像時的眼動數據,對所觀看的圖像中的物體區域進行標注,根據標注的物體區域依次將落入同一標注物體區域的眼動注視點歸為一組,構成語義注視路徑,再通過統計每位受試者的語義注視路徑中在不同語義物體區域之間的注意轉移次數,構建視覺注意圖,并對獲視覺注意圖進行標準化處理,完成基于圖的視覺注意編碼,且可利用標準化視覺注意圖評估受試者的注意一致性。本專利技術的方法可以有效解決原始注視點路徑個體差異大的問題,具有計算簡單,效果好等特點,非常適合于對編碼群體的視覺行為。

    本文檔來自技高網...

    【技術保護點】

    1.一種基于圖的視覺注意編碼方法,具體步驟如下:

    2.根據權利要求1所述的一種基于圖的視覺注意編碼方法,其特征在于,所述視覺注意編碼方法還包括步驟S6,計算待評估受試者注意在標準化視覺注意圖上的得分,評估待評估受試者與構建標準化視覺注意圖所采集的受試者注意之間的一致性,具體如下:

    【技術特征摘要】

    1.一種基于圖的視覺注意編碼方法,具體步驟如下:

    2.根據權利要求1所述的一種基于圖的視覺注意編碼方法,其特征在于,所述視覺注意編碼方...

    【專利技術屬性】
    技術研發人員:楊開富李永杰
    申請(專利權)人:電子科技大學
    類型:發明
    國別省市:

    網友詢問留言 已有0條評論
    • 還沒有人留言評論。發表了對其他瀏覽者有用的留言會獲得科技券。

    1
    主站蜘蛛池模板: 自拍偷在线精品自拍偷无码专区| 国产又爽又黄无码无遮挡在线观看| 国产成人无码A区在线观看视频| 亚洲av无码成人精品区一本二本| 色欲aⅴ亚洲情无码AV| 无码av免费网站| 小泽玛丽无码视频一区| 无码国产伦一区二区三区视频| 国产成人无码精品一区不卡| 国产精品无码成人午夜电影| 精品久久久无码中文字幕边打电话| 国产精品多人p群无码| 午夜人性色福利无码视频在线观看| 精品高潮呻吟99av无码视频| 亚洲精品无码久久久久| 少妇无码?V无码专区在线观看| 久久ZYZ资源站无码中文动漫| 一本加勒比HEZYO无码人妻| 少妇人妻av无码专区| 伊人天堂av无码av日韩av| 无码人妻精品一区二区在线视频| 精品久久久久久无码免费| 日韩精品中文字幕无码专区| 亚洲日韩中文字幕无码一区| 97免费人妻无码视频| 精品无码一区二区三区爱欲九九| 国模GOGO无码人体啪啪| 中文字幕丰满乱子无码视频| 国产成人无码精品久久久久免费| 国产精品JIZZ在线观看无码| 国产成人亚洲精品无码AV大片| 久久人午夜亚洲精品无码区| 国产AV无码专区亚洲AV蜜芽| 精品无码国产AV一区二区三区| 无码视频一区二区三区| 国产在线无码视频一区| 日韩人妻无码精品系列| 亚洲欧洲日产国码无码网站| 亚洲国产精品无码AAA片| 久久久久亚洲AV片无码下载蜜桃| 98久久人妻无码精品系列蜜桃|