System.ArgumentOutOfRangeException: 索引和長度必須引用該字符串內(nèi)的位置。 參數(shù)名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 亚洲另类无码一区二区三区,国产午夜无码精品免费看,成在人线av无码免费高潮水
  • 
    <ul id="o6k0g"></ul>
    <ul id="o6k0g"></ul>

    一種用于匿名時(shí)空軌跡識別的模型制造技術(shù)

    技術(shù)編號:44414230 閱讀:5 留言:0更新日期:2025-02-25 10:29
    本發(fā)明專利技術(shù)提供一種用于匿名時(shí)空軌跡識別的模型,包括:原始軌跡圖構(gòu)建模塊,用于根據(jù)匿名用戶在一段時(shí)間內(nèi)生成的軌跡數(shù)據(jù),構(gòu)建原始軌跡圖,其包括表示軌跡數(shù)據(jù)的多個(gè)簽到記錄的多個(gè)節(jié)點(diǎn)和表示節(jié)點(diǎn)間關(guān)系的多條邊,對原始軌跡圖的多個(gè)節(jié)點(diǎn)進(jìn)行嵌入表示,得到多個(gè)節(jié)點(diǎn)的空間信息;多尺度軌跡圖構(gòu)建模塊,用于基于原始軌跡圖按預(yù)設(shè)的多種采樣率構(gòu)建不同尺度的多個(gè)軌跡圖;軌跡空間信息提取模塊,用于基于多個(gè)節(jié)點(diǎn)的空間信息提取多個(gè)軌跡圖中每個(gè)軌跡圖的各個(gè)節(jié)點(diǎn)的空間特征,聚合多個(gè)軌跡圖中每個(gè)軌跡圖的各個(gè)節(jié)點(diǎn)的空間特征,得到多尺度的軌跡空間特征;軌跡識別模塊,用于根據(jù)軌跡空間特征識別軌跡數(shù)據(jù)屬于各個(gè)已知用戶的概率值。

    【技術(shù)實(shí)現(xiàn)步驟摘要】

    本專利技術(shù)涉及神經(jīng)網(wǎng)絡(luò)領(lǐng)域,具體來說涉及匿名軌跡信息識別領(lǐng)域,更具體地說,涉及一種用于匿名時(shí)空軌跡識別的模型


    技術(shù)介紹

    1、匿名軌跡識別技術(shù)最相關(guān)的研究方向?yàn)檐壽E用戶鏈接(trajectory-userlinking),這是將軌跡連接到生成它們的匿名用戶的技術(shù)。匿名軌跡識別技術(shù)目前主要有兩種類型的解決方案,包括傳統(tǒng)的基于軌跡相似性的研究和基于深度學(xué)習(xí)的模型。

    2、傳統(tǒng)基于軌跡相似性的研究通常基于數(shù)理統(tǒng)計(jì)方法來尋找軌跡中的空間信息統(tǒng)計(jì)特征,例如深度貝葉斯網(wǎng)絡(luò)(簡稱dbn)、隱馬爾可夫模型(簡稱hmm)和最長公共子序列(簡稱lcss)等等。然而,傳統(tǒng)方案需要研究人員基于領(lǐng)域知識,利用特征工程對軌跡中的空間信息進(jìn)行差異化的表征,再提供數(shù)理統(tǒng)計(jì)方法對這些數(shù)據(jù)進(jìn)行分析,該類型的方法往往無法有效解決大型軌跡數(shù)據(jù)集中遇到的軌跡表示中的線性不可區(qū)分性和噪聲問題,并且在準(zhǔn)確性方面這是成對點(diǎn)匹配相似性計(jì)算面臨的普遍困難。

    3、相較于統(tǒng)計(jì)學(xué)方法和機(jī)器學(xué)習(xí)技術(shù),深度學(xué)習(xí)因其出色的非線性建模能力和對空間關(guān)系的深入分析而受到了廣泛關(guān)注。匿名軌跡識別技術(shù)的深度學(xué)習(xí)方法又可以分為軌跡序列方法與軌跡圖方法。如參考文獻(xiàn)[1](該文獻(xiàn)方法簡稱為tuler)展示出的軌跡序列識別方法,其受自然語言處理中單詞嵌入的啟發(fā),該類方法將軌跡中地理信息視為單詞,將整個(gè)軌跡視為句子,從而將二維空間信息嵌入到高維向量中,進(jìn)而使得深度學(xué)習(xí)過程中學(xué)習(xí)軌跡序列中的時(shí)序依賴信息。繼這項(xiàng)工作之后,以參考文獻(xiàn)[2](該文獻(xiàn)方法簡稱為tulvae)為代表的方法,其基于生成網(wǎng)絡(luò)如變分自編碼器,利用變分推理來挖掘軌跡的潛在分布來優(yōu)化軌跡中空間信息的表示,并應(yīng)用半監(jiān)督學(xué)習(xí)方法來允許未標(biāo)記軌跡序列參與訓(xùn)練過程。又以參考文獻(xiàn)[3](該文獻(xiàn)方法簡稱為stulig)和參考文獻(xiàn)[4](該文獻(xiàn)方法簡稱為tgan)為例,兩者方法都在上述基礎(chǔ)上來增強(qiáng)原始訓(xùn)練集,兩者方法的區(qū)別在于前者stulig采用了具有分層潛在因子的變分自動編碼器,而后者tgan是基于生成對抗網(wǎng)絡(luò)開發(fā)的。而應(yīng)用了生成網(wǎng)絡(luò)的模型缺乏良好的并行計(jì)算能力而往往具有很高的計(jì)算復(fù)雜度,若利用生成性任務(wù)來提高分類任務(wù)的性能,還會導(dǎo)致不可容忍的時(shí)間成本。

    4、此后,軌跡序列類型的方法還采納注意力方法并按照軌跡序列的順序進(jìn)行空間信息重點(diǎn)分析,參考文獻(xiàn)[5](該文獻(xiàn)方法簡稱為deeptul)設(shè)計(jì)了一個(gè)基于歷史軌跡的注意力模塊,以獲取理解人類移動模式的上下文信息。盡管將軌跡視為序列的匿名軌跡識別技術(shù)很好地利用了軌跡中涉及的順序信息,但是空間信息沒有得到充分利用。最近的參考文獻(xiàn)[6](該文獻(xiàn)方法簡稱為graphsage)來學(xué)習(xí)每個(gè)節(jié)點(diǎn)的鄰居特征。但該方法需要進(jìn)行固定數(shù)量的空間信息采樣進(jìn)行空間信息的聚合,為此不可避免的導(dǎo)致空間信息的忽視或者冗余信息的引入,同時(shí),實(shí)際場景下的用戶軌跡數(shù)據(jù)極具稀疏性,會阻礙軌跡空間信息的有效表示。因此,現(xiàn)有方法對于空間信息均會產(chǎn)生不同程度的忽略。

    5、基于上述分析可知,雖然現(xiàn)有深度學(xué)習(xí)模型取得了令人滿意的結(jié)果,但依然存在以下問題限制了它們的性能:

    6、(1)忽視空間信息:模型忽略了軌跡中的獨(dú)特空間信息,即目前的大量工作僅僅是將軌跡僅視為一種特殊的時(shí)間序列,對軌跡僅僅按照時(shí)間的先后順序,將軌跡中地理空間信息表示為順序型數(shù)據(jù)。該軌跡表示技術(shù)從出發(fā)點(diǎn)就決定了匿名軌跡識別的準(zhǔn)確率上限。這顯然違背了對復(fù)雜的人類移動模式的理解,并落后于交通領(lǐng)域的研究方法。而基于空間信息的識別也在忽略了部分空間信息。

    7、(2)采樣導(dǎo)致信息丟失:由于模型結(jié)構(gòu)的限制,模型需要基于固定長度來采樣或填充軌跡,以便能夠標(biāo)準(zhǔn)化地表示軌跡以輸入模型,而在實(shí)現(xiàn)場景中,軌跡的長度總是可變的,因?yàn)橛脩艨梢詾槎掏举徫锫眯猩啥誊壽E,或者為通勤生成長軌跡。

    8、因此,現(xiàn)有針對軌跡識別的深度學(xué)習(xí)模型中,第一方面,容易忽略軌跡中的空間信息,存在無法很好地理解人類移動模式的問題,第二方面,以固定軌跡長度進(jìn)行識別,在面臨軌跡多樣化時(shí)存在識別性能差以及缺乏靈活性的問題。

    9、需要說明的是:本
    技術(shù)介紹
    僅用于介紹本專利技術(shù)的相關(guān)信息,以便于幫助理解本專利技術(shù)的技術(shù)方案,但并不意味著相關(guān)信息必然是現(xiàn)有技術(shù)。在沒有證據(jù)表明相關(guān)信息已在本專利技術(shù)的申請日以前公開的情況下,相關(guān)信息不應(yīng)被視為現(xiàn)有技術(shù)。

    10、參考文獻(xiàn):

    11、[1]?gao,?q.,?zhou,?f.,?zhang,?k.,?trajcevski,?g.,?luo,?x.,?zhang,?f.:identifying?human?mobility?via?trajectory?embeddings.?in:?ijcai.?vol.?17,?pp.1689–1695?(2017).

    12、[2]?zhou,?f.,?gao,?q.,?trajcevski,?g.,?zhang,?k.,?zhong,?t.,?zhang,f.:?trajectory-user?linking?via?variational?autoencoder.?in:?ijcai.?pp.?3212–3218?(2018).

    13、[3]?zhou,?f.,?liu,?x.,?zhang,?k.,?trajcevski,?g.,?2021b.?towarddiscriminating?and?synthesizing?motion?traces?using?deep?probabilisticgenerative?models.?ieee?trans.?neural?networks?learn.?syst.?32,?2401–2414.

    14、[4]?zhou,?f.,?yin,?r.,?trajcevski,?g.,?zhang,?k.,?wu,?j.,?khokhar,a.a.,?2021c.?improving?human?mobility?identification?with?trajectoryaugmentation.?geoinformatica?25,?453–483.

    15、[5]?miao,?c.,?wang,?j.,?yu,?h.,?zhang,?w.,?qi,?y.,?2020.?trajectory-user?linking?with?attentive?recurrent?network,?in:?aamas?’20,?auckland,?newzealand,?may?9-13,?2020,?international?foundation?for?autonomous?agents?andmultiagent?systems.?pp.?878–886.

    16、[6]?hamilton,?w.l.,?ying,?z.,?leskovec,?j.,?2017.?inductiverepresentation?learning?on?large?graphs,?in:?nips?2017,?december?4-9,本文檔來自技高網(wǎng)...

    【技術(shù)保護(hù)點(diǎn)】

    1.一種用于匿名時(shí)空軌跡識別的模型,其特征在于,所述模型包括:

    2.根據(jù)權(quán)利要求1所述的模型,其特征在于,所述軌跡空間信息提取模塊包括:

    3.根據(jù)權(quán)利要求1所述的模型,其特征在于,所述多個(gè)簽到記錄中每個(gè)簽到記錄包括時(shí)間戳和地理位置,所述原始軌跡圖構(gòu)建模塊中,構(gòu)建原始軌跡圖的方式包括:

    4.根據(jù)權(quán)利要求3所述的模型,其特征在于,所述多尺度軌跡圖構(gòu)建模塊包括:

    5.根據(jù)權(quán)利要求4所述的模型,其特征在于,所述邊構(gòu)建單元中,預(yù)設(shè)邊構(gòu)建規(guī)則包括:

    6.根據(jù)權(quán)利要求1所述的模型,其特征在于,所述軌跡識別模塊包括:

    7.一種用于匿名時(shí)空軌跡識別的模型的訓(xùn)練方法,其特征在于,訓(xùn)練方法包括:

    8.一種匿名時(shí)空軌跡識別方法,其特征在于,方法包括:

    9.一種計(jì)算機(jī)可讀存儲介質(zhì),其特征在于,其上存儲有計(jì)算機(jī)程序,所述計(jì)算機(jī)程序可被處理器執(zhí)行以實(shí)現(xiàn)權(quán)利要求7或8所述方法的步驟。

    10.一種電子設(shè)備,其特征在于,包括:

    【技術(shù)特征摘要】

    1.一種用于匿名時(shí)空軌跡識別的模型,其特征在于,所述模型包括:

    2.根據(jù)權(quán)利要求1所述的模型,其特征在于,所述軌跡空間信息提取模塊包括:

    3.根據(jù)權(quán)利要求1所述的模型,其特征在于,所述多個(gè)簽到記錄中每個(gè)簽到記錄包括時(shí)間戳和地理位置,所述原始軌跡圖構(gòu)建模塊中,構(gòu)建原始軌跡圖的方式包括:

    4.根據(jù)權(quán)利要求3所述的模型,其特征在于,所述多尺度軌跡圖構(gòu)建模塊包括:

    5.根據(jù)權(quán)利要求4所述的模型,其特征在于,所述邊...

    【專利技術(shù)屬性】
    技術(shù)研發(fā)人員:孫濤李雨杰錢塘文陳昭杜一凡邵澤志徐勇軍王飛
    申請(專利權(quán))人:中國科學(xué)院計(jì)算技術(shù)研究所
    類型:發(fā)明
    國別省市:

    網(wǎng)友詢問留言 已有0條評論
    • 還沒有人留言評論。發(fā)表了對其他瀏覽者有用的留言會獲得科技券。

    1
    主站蜘蛛池模板: 青青草无码免费一二三区| 亚洲av无码不卡一区二区三区 | 无码国产亚洲日韩国精品视频一区二区三区 | 蜜芽亚洲av无码一区二区三区 | 婷婷四虎东京热无码群交双飞视频 | 久久精品中文字幕无码绿巨人| 久久亚洲精品成人无码网站 | 亚洲va无码手机在线电影| 在线精品自偷自拍无码中文| 四虎影视无码永久免费| 免费看无码自慰一区二区| 无码国产精品一区二区免费模式 | 色综合久久久无码网中文| 宅男在线国产精品无码| 免费人妻无码不卡中文字幕18禁| 亚洲AV无码成人专区片在线观看| 国产精品午夜福利在线无码| 色综合无码AV网站| 亚洲Aⅴ在线无码播放毛片一线天| 亚洲AV日韩AV高潮无码专区| 亚洲一区精品无码| 国产亚洲精久久久久久无码77777| 国产丝袜无码一区二区视频| 西西大胆无码视频免费| 亚洲国产精品无码久久久秋霞1| 欧洲无码一区二区三区在线观看| 亚洲中文字幕不卡无码| 中文字幕精品无码一区二区| 八戒理论片午影院无码爱恋| 中文无码vs无码人妻| 亚洲午夜国产精品无码| 日韩人妻无码精品系列| 国产办公室秘书无码精品99 | 孕妇特级毛片WW无码内射 | 中文有码无码人妻在线| 一夲道dvd高清无码| 国产精品无码久久四虎| 无码精品久久一区二区三区| 久久精品无码免费不卡| 亚洲日韩欧洲无码av夜夜摸| 亚洲AV永久纯肉无码精品动漫|