System.ArgumentOutOfRangeException: 索引和長度必須引用該字符串內的位置。 參數名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 亚洲AV无码专区亚洲AV伊甸园,精品亚洲成在人线AV无码,无码国模国产在线无码精品国产自在久国产
  • 
    <ul id="o6k0g"></ul>
    <ul id="o6k0g"></ul>

    簡單無監(jiān)督圖表示學習方法技術

    技術編號:43892601 閱讀:3 留言:0更新日期:2025-01-03 13:07
    本發(fā)明專利技術公開了一種簡單的無監(jiān)督圖表示學習方法,以進行有效且高效的對比學習。具體來說,方法中提出的多重損失函數利用了結構信息和鄰域信息之間的互補性來擴大類間差異,并增加了一個上界損失,以實現正樣本表示與錨點之間的有限距離,從而減少類內差異。因此,擴大類間差異和減少類內差異的結合實現了較小的泛化誤差,從而獲得了一個有效的模型。此外,我們的方法移除了以往圖對比學習方法中廣泛使用的數據增強和判別器,同時能夠輸出低維嵌入,提升了模型的效率。在各種真實世界的數據集上的實驗結果驗證了我們方法的有效性和高效性,相比于最先進的方法表現更優(yōu)。

    【技術實現步驟摘要】

    本專利技術屬于圖表示學習領域,更為具體地講,涉及一種簡單的無監(jiān)督圖表示學習方法。


    技術介紹

    1、由于圖神經網絡(gnn)的廣泛應用,無監(jiān)督圖表示學習(ugrl)最近也受到了極大的關注。ugrl不需要大量的標記節(jié)點進行訓練,它可以通過同時學習表示和保留樣本的局部結構來輸出判別表示。判別性表示保證了下游任務輸出有效的模型,使得ugrl在實際應用中表現出顯著的性能。作為ugrl的代表方法之一,對比學習被提出以最大化輸入內容和相關內容之間的互補信息(mi)。

    2、圖對比學習方法之間的關鍵區(qū)別在于對輸入內容及其相關內容的定義,例如,deep?graph?infomax(dgi)最大化了節(jié)點表示和圖摘要之間的互信息。圖形互信息(gmi)最大化了輸入圖和輸出圖之間的互信息。grace通過各種數據增強,例如屬性屏蔽或邊緣擾動,最大化每個節(jié)點的兩個視圖之間的互信息。

    3、雖然之前的方法在表示學習的許多任務中都是有效的,但它們通常依賴數據增強來生成互信息最大化的輸入內容及其相關內容,從而導致訓練過程的計算成本昂貴。因此,之前的這些方法通常是低效的,特別是對于大規(guī)模數據集,其中隨著樣本數量或嵌入維度的增加,計算成本會急劇增加。事實上,之前的對比學習方法導致可擴展性弱的原因包括數據增強、高維嵌入、對比損失等。首先,之前的工作通常通過數據增強生成多個視圖作為相關內容,例如,通過刪除邊和屏蔽節(jié)點特征來生成多個視圖,因此,數據增強(包括數據生成和數據編碼)的計算成本約占訓練時間的20%-40%。其次,現有工作通過增加嵌入的維度來提高表示質量,從而導致訓練時間的增加,原因是這些方法的有效性對維度敏感,例如,dgi和gmi在512維時達到最佳精度。第三,之前的工作通常為目標函數設計一個鑒別器(包含可學習的參數),這在計算上是令人望而卻步的,例如,dgi和mvgrl采用判別器來衡量節(jié)點嵌入和圖嵌入的一致性,大約占用10%-30%的訓練時間。顯然,需要找到一種訓練過程計算成本低、表示質量高的ugrl方法。


    技術實現思路

    1、本專利技術的目的是克服現有技術的不足,提供一種新的對比學習方法即簡單無監(jiān)督圖表示學習(simple?unsupervised?graph?representation?learning,sugrl),以實現表示學習的有效性和可擴展性。

    2、專利技術設計了一個簡單的框架,即sugrl,以實現有效和高效的對比學習。為了獲得有效性,我們設計了兩個三元組損失來探索結構信息和鄰居信息之間的互補信息,以擴大類間差異,以及一個上限損失來減少類內差異。為了提高效率,我們的方法被設計去除了用于生成錨點和負樣本表示的gcn,以及從之前的圖對比學習中去除了數據增強和鑒別器。我們在各種真實世界的數據集上進行了全面的實驗,實驗結果表明,我們的方法在準確性和可擴展性方面始終優(yōu)于最先進的方法。

    3、本專利技術具有以下有益效果:

    4、1)本專利技術聯合考慮結構信息和鄰居信息來探索它們的互補信息,旨在擴大類間差異,同時設計一個上限損失來實現小的類內差異,保證了有效性;

    5、2)本專利技術為了提高效率從對比學習中刪除了數據增強和判別器,這使得我們的方法在大規(guī)模數據集上很容易實現可擴展性;

    6、3)本專利技術在8個公開基準數據集上進行了全面的實證研究,與11種對比方法相比,驗證了本專利技術在節(jié)點分類方面的有效性和高效性。

    本文檔來自技高網...

    【技術保護點】

    1.一種簡單無監(jiān)督圖表示學習方法,其特征在于,包括以下步驟:

    2.根據權利要求1所述的采用GCN生成正樣本表示方法,其特征在于,所述步驟S5中兩種類型的正樣本表示采用如下方法生成:

    【技術特征摘要】

    1.一種簡單無監(jiān)督圖表示學習方法,其特征在于,包括以下步驟:

    2.根據權利要求1所述...

    【專利技術屬性】
    技術研發(fā)人員:朱曉峰楊文遠莫宇杰
    申請(專利權)人:電子科技大學深圳高等研究院
    類型:發(fā)明
    國別省市:

    網友詢問留言 已有0條評論
    • 還沒有人留言評論。發(fā)表了對其他瀏覽者有用的留言會獲得科技券。

    1
    主站蜘蛛池模板: 亚洲午夜福利精品无码| 少妇无码一区二区三区免费| 无码av天天av天天爽| 无码一区二区三区| 98久久人妻无码精品系列蜜桃| 亚洲2022国产成人精品无码区| 亚洲中文无码av永久| 无码熟妇αⅴ人妻又粗又大| 无码精品一区二区三区免费视频| 精品无码成人久久久久久| 无码人妻一区二区三区免费n鬼沢| 精品少妇人妻av无码专区| 永久免费av无码网站yy| 无码国模国产在线无码精品国产自在久国产| 国产色无码精品视频免费| 亚洲精品无码不卡在线播HE| 精品人妻无码专区在中文字幕| 中文字幕精品无码亚洲字| 亚洲成a人在线看天堂无码| 色爱无码AV综合区| 国产精品无码DVD在线观看| 无码免费午夜福利片在线| 亚洲天然素人无码专区| 亚洲av无码国产精品夜色午夜| 亚洲av无码不卡一区二区三区| 国产精品亚洲а∨无码播放| 亚洲人成人无码网www国产| 久久久久久国产精品无码下载| 无码国内精品久久人妻| 无遮掩无码h成人av动漫| 亚洲AV无码专区亚洲AV伊甸园| 亚洲AV综合永久无码精品天堂| 亚洲成a人无码亚洲成www牛牛| 天堂Av无码Av一区二区三区| 日韩综合无码一区二区| 国产精品va在线观看无码| 亚洲精品无码永久在线观看你懂的| 亚洲AV无码一区二区三区久久精品| 13小箩利洗澡无码视频网站免费| 久久久久久亚洲精品无码| 人妻无码视频一区二区三区|