System.ArgumentOutOfRangeException: 索引和長度必須引用該字符串內(nèi)的位置。 參數(shù)名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() heyzo高无码国产精品,亚洲熟妇无码一区二区三区,欧洲人妻丰满av无码久久不卡
  • 
    <ul id="o6k0g"></ul>
    <ul id="o6k0g"></ul>
    當(dāng)前位置: 首頁 > 專利查詢>華南師范大學(xué)專利>正文

    一種跨模態(tài)視觸覺數(shù)據(jù)仿真生成模型及模型訓(xùn)練裝置制造方法及圖紙

    技術(shù)編號(hào):43249932 閱讀:11 留言:0更新日期:2024-11-08 20:34
    本發(fā)明專利技術(shù)涉及一種跨模態(tài)視觸覺數(shù)據(jù)仿真生成模型及訓(xùn)練裝置,其中,跨模態(tài)視觸覺數(shù)據(jù)仿真生成模型包括融合層和第一生成器;其中融合層用于將受力情況數(shù)據(jù)升維后與視覺圖像數(shù)據(jù)進(jìn)行融合,得到融合后的圖像數(shù)據(jù);第一生成器用于第一注意力?生成對(duì)抗處理,得到視觸覺圖像;本發(fā)明專利技術(shù)在生成對(duì)抗網(wǎng)絡(luò)的數(shù)據(jù)生成過程中引入注意力機(jī)制,使得模型能夠避免提取到的圖像特征偏離主要特征,這種協(xié)同作用使得生成數(shù)據(jù)在紋理輪廓等方面更加逼真,解決傳統(tǒng)生成方法的生成數(shù)據(jù)缺乏真實(shí)感、細(xì)節(jié)不夠豐富等的一些問題,提高生成數(shù)據(jù)集的質(zhì)量,最終有望在機(jī)器人觸覺傳感器仿真、機(jī)器人觸覺渲染、靈巧手觸覺渲染、虛擬現(xiàn)實(shí)觸覺渲染等領(lǐng)域得到廣泛應(yīng)用。

    【技術(shù)實(shí)現(xiàn)步驟摘要】

    本專利技術(shù)涉及數(shù)據(jù)仿真領(lǐng)域,特別是涉及一種跨模態(tài)視觸覺數(shù)據(jù)仿真生成模型及模型訓(xùn)練裝置領(lǐng)域。


    技術(shù)介紹

    1、觸覺感知已被研究并證明在人類與環(huán)境的相互作用中發(fā)揮關(guān)鍵作用,觸覺傳感被廣泛應(yīng)用于各個(gè)領(lǐng)域的研究和應(yīng)用,如何更好地采集和應(yīng)用觸覺信息成為了許多研究的關(guān)心方向。其中視觸覺傳感器具有易于制造、高分辨率、無電干擾問題等優(yōu)點(diǎn),并且相比傳統(tǒng)單模態(tài)觸覺傳感器,它能夠提供更豐富的觸覺信息。因此,視觸覺數(shù)據(jù)在機(jī)器人研究、靈巧手觸覺感知、三維圖像重建、工業(yè)生產(chǎn)等領(lǐng)域得到了廣泛的應(yīng)用,發(fā)揮著越來越重要的作用。然而視觸覺數(shù)據(jù)的采集存在一定的時(shí)間成本,且長時(shí)間重復(fù)的數(shù)據(jù)采集工作會(huì)帶來一定程度上的傳感器損傷問題。同時(shí),傳感器的特性在長期使用過程中可能會(huì)發(fā)生變化,經(jīng)常需要校準(zhǔn)和維護(hù),否則采集到的數(shù)據(jù)可能對(duì)后續(xù)的研究結(jié)果帶來偏差。同時(shí),在機(jī)器人設(shè)計(jì),機(jī)器人觸覺渲染、靈巧手觸覺渲染、虛擬現(xiàn)實(shí)觸覺等領(lǐng)域?qū)τ谟|覺數(shù)據(jù)仿真生成具有極大需求。因此,為了節(jié)省時(shí)間和資源,需要構(gòu)建能夠脫離物理交互并產(chǎn)生新視觸覺數(shù)據(jù)的生成模型。

    2、為解決上述問題,目前常見的方法是采用虛擬仿真強(qiáng)化學(xué)習(xí)的方法,在模擬環(huán)境中采集視觸覺數(shù)據(jù)并進(jìn)行機(jī)器的模擬訓(xùn)練,最后再在現(xiàn)實(shí)中使用,以此彌補(bǔ)現(xiàn)實(shí)中存在難以捕獲數(shù)據(jù)的盲區(qū)問題和機(jī)器易損耗等問題。然而,目前大多數(shù)基于強(qiáng)化學(xué)習(xí)的成功都局限于抽象和簡化的模擬環(huán)境,系統(tǒng)不能在更復(fù)雜的現(xiàn)實(shí)環(huán)境中維持高性能。近年來,生成對(duì)抗網(wǎng)絡(luò)以及擴(kuò)散模型等深度學(xué)習(xí)網(wǎng)絡(luò)在圖像生成等數(shù)據(jù)生成領(lǐng)域中得到了極大的發(fā)展,當(dāng)前基于常見生成模型生成的視觸覺數(shù)據(jù)有一定的局限性,容易對(duì)實(shí)際僅關(guān)注紋理、形狀和梯度的觸覺數(shù)據(jù)生成帶來干擾,難以關(guān)注捕捉目標(biāo)的觸覺信息。


    技術(shù)實(shí)現(xiàn)思路

    1、基于此,本專利技術(shù)目的在于提供一種跨模態(tài)視觸覺數(shù)據(jù)仿真生成模型及模型訓(xùn)練裝置,用于解決上述問題。

    2、本專利技術(shù)是通過如下技術(shù)方案實(shí)現(xiàn)的,一方面本專利技術(shù)提供一種跨模態(tài)視觸覺數(shù)據(jù)仿真生成模型,其包括:

    3、融合層,用于將輸入的受力情況數(shù)據(jù)升維后與輸入的視覺圖像數(shù)據(jù)進(jìn)行融合,得到融合后的圖像數(shù)據(jù);和

    4、第一生成器,用于對(duì)融合后的圖像數(shù)據(jù)進(jìn)行第一注意力-生成對(duì)抗處理,得到生成視觸覺圖像。

    5、進(jìn)一步地,所述第一生成器包括:

    6、卷積層,用于對(duì)融合后的圖像數(shù)據(jù)進(jìn)行卷積操作得到圖像特征參數(shù);

    7、殘差層,用于對(duì)圖像特征參數(shù)進(jìn)行殘差映射計(jì)算,得到中間變量;

    8、注意力模塊,用于根據(jù)中間變量計(jì)算注意力權(quán)重矩陣,根據(jù)注意力權(quán)重矩陣對(duì)中間變量進(jìn)行增強(qiáng),得到圖像特征表示;

    9、反卷積層,對(duì)圖像特征表示進(jìn)行反卷積得到生成視觸覺圖像。

    10、進(jìn)一步地,所述第一生成器通過如下方法進(jìn)行訓(xùn)練:

    11、s10:對(duì)訓(xùn)練集進(jìn)行數(shù)據(jù)預(yù)處理,之后依序輸入所述跨模態(tài)視觸覺數(shù)據(jù)仿真生成模型;其中,所述訓(xùn)練集包括原始視覺圖像數(shù)據(jù)集、原始視觸覺圖像數(shù)據(jù)集以及原始受力情況數(shù)據(jù)集;每一原始視覺圖像與一原始視觸覺圖像及一原始受力情況相對(duì)應(yīng);

    12、所述跨模態(tài)視觸覺數(shù)據(jù)仿真生成模型對(duì)輸入的視覺圖像數(shù)據(jù)、受力情況數(shù)據(jù)進(jìn)行處理,得到生成視觸覺圖像;

    13、s20:將跨模態(tài)視觸覺數(shù)據(jù)仿真生成模型輸出的生成視觸覺圖像經(jīng)過第二注意力-生成對(duì)抗處理,得到生成視覺圖像;

    14、s30:對(duì)原始視觸覺圖像與生成視觸覺圖像進(jìn)行判別處理得到第一判別輸出,對(duì)原始視覺圖像與生成視覺圖像進(jìn)行判別處理得到第二判別輸出;

    15、s40:根據(jù)第一判別輸出以及生成視觸覺圖像的判別輸出計(jì)算第一對(duì)抗損失;根據(jù)第二判別輸出以及生成視覺圖像的判別輸出計(jì)算第二對(duì)抗損失;根據(jù)原始視觸覺數(shù)據(jù)與所述融合后的數(shù)據(jù)計(jì)算循環(huán)一致性損失;

    16、s50:對(duì)第一對(duì)抗損失、第一對(duì)抗損失及循環(huán)一致性損失加權(quán)求和得到總損失,若總損失小于收斂閾值,或,迭代次數(shù)超過迭代閾值,完成訓(xùn)練,否則執(zhí)行步驟s60;

    17、s60:分別計(jì)算對(duì)抗損失的梯度、循環(huán)一致性損失的梯度,根據(jù)梯度反向傳播更新模型的網(wǎng)絡(luò)參數(shù)。

    18、進(jìn)一步地,所述第一注意力-生成對(duì)抗處理,和/或,第二注意力-生成對(duì)抗處理包括:

    19、對(duì)輸入圖像進(jìn)行卷積操作得到圖像特征參數(shù);

    20、對(duì)圖像特征參數(shù)進(jìn)行殘差映射計(jì)算,得到中間變量;

    21、根據(jù)中間變量計(jì)算注意力權(quán)重矩陣,根據(jù)注意力權(quán)重矩陣對(duì)中間變量進(jìn)行增強(qiáng),得到圖像特征表示;

    22、對(duì)圖像特征表示進(jìn)行反卷積得到生成視觸覺圖像。

    23、進(jìn)一步地,所述判別處理包括:

    24、對(duì)輸入圖像進(jìn)行卷積操作得到圖像特征參數(shù);

    25、根據(jù)圖像特征參數(shù)計(jì)算注意力權(quán)重矩陣,根據(jù)注意力權(quán)重矩陣對(duì)輸入數(shù)據(jù)進(jìn)行增強(qiáng),得到圖像特征表示;

    26、對(duì)圖像特征表示進(jìn)行卷積映射得到判別輸出。

    27、進(jìn)一步地,注意力權(quán)重矩陣的計(jì)算公式為:

    28、

    29、其中,q=xwq,k=xwk,v=xwv,分別表示注意力機(jī)制中的查詢(query)、鍵(key)和值(value)矩陣,其均為線性變換得到的,wq,wk,wv是預(yù)設(shè)的權(quán)重矩陣,x為進(jìn)入注意力處理的參數(shù)或者變量,其數(shù)據(jù)維度大小為dk。

    30、進(jìn)一步地,所述第一對(duì)抗損失計(jì)算公式為:

    31、lossgan1=e[logdt(y)]+e[log(1-dt(g(x)))]

    32、其中dt表示第一判別處理,判別視觸覺圖像的真實(shí)程度,g表示第一注意力-生成對(duì)抗處理;x表示數(shù)據(jù)集中輸入的真實(shí)視覺圖像與受力數(shù)據(jù)升維后進(jìn)行融合得到的矩陣,y表示數(shù)據(jù)集中輸入的真實(shí)的視觸覺數(shù)據(jù)。g(x)表示生成的視觸覺圖像;

    33、所述第二對(duì)抗損失計(jì)算公式為:

    34、lossgan2=e[logdv(x)]+e[log(1-dv(f(y)))]

    35、其中dv表示第二判別處理,判別視覺圖像的真實(shí)程度,f表示第二注意力-生成對(duì)抗處理;x表示數(shù)據(jù)集中輸入的真實(shí)視覺圖像與受力數(shù)據(jù)升維后進(jìn)行融合得到的矩陣,y表示數(shù)據(jù)集中輸入的真實(shí)的視觸覺數(shù)據(jù)。f(y)表示生成的視覺圖像。

    36、進(jìn)一步地,所述循環(huán)一致性損失的計(jì)算公式如下:

    37、losscycle=e[‖g(f(y))-y‖]+e[‖f(g(x))-x‖]

    38、其中g(shù)表示第一注意力-生成對(duì)抗處理,f表示第二注意力-生成對(duì)抗處理,e表示期望值,‖·‖表示范數(shù)(例如l1范數(shù)、l2范數(shù)),x表示數(shù)據(jù)集中輸入的真實(shí)視覺圖像與受力數(shù)據(jù)升維后進(jìn)行融合得到的矩陣,y表示數(shù)據(jù)集中輸入的真實(shí)的觸覺數(shù)據(jù)。

    39、進(jìn)一步地,所述數(shù)據(jù)預(yù)處理具體包括:

    40、s11:對(duì)原始視覺圖像數(shù)據(jù)、原始視觸覺數(shù)據(jù)進(jìn)行重采樣;

    41、s12:隨機(jī)選擇重采樣后的視覺圖像數(shù)據(jù)進(jìn)行數(shù)據(jù)增強(qiáng),并對(duì)該視覺數(shù)據(jù)對(duì)應(yīng)的視觸覺數(shù)據(jù)進(jìn)行同樣的數(shù)據(jù)增強(qiáng)操作;

    42、s13:對(duì)訓(xùn)練本文檔來自技高網(wǎng)...

    【技術(shù)保護(hù)點(diǎn)】

    1.一種跨模態(tài)視觸覺數(shù)據(jù)仿真生成模型,其特征在于,包括:

    2.根據(jù)權(quán)利要求1所述的一種跨模態(tài)視觸覺數(shù)據(jù)仿真生成模型,其特征在于,所述第一生成器包括:

    3.根據(jù)權(quán)利要求2所述的一種跨模態(tài)視觸覺數(shù)據(jù)仿真生成模型,其特征在于,所述第一生成器通過如下方法進(jìn)行訓(xùn)練:

    4.根據(jù)權(quán)利要求3所述的一種跨模態(tài)視觸覺數(shù)據(jù)仿真生成模型,其特征在于,步驟S20中的第二注意力-生成對(duì)抗處理包括:

    5.根據(jù)權(quán)利要求4所述的一種跨模態(tài)視觸覺數(shù)據(jù)仿真生成模型,其特征在于,步驟S30的第一判別處理,或,第二判別處理包括:

    6.根據(jù)權(quán)利要求5所述的一種跨模態(tài)視觸覺數(shù)據(jù)仿真生成模型,其特征在于,所述注意力權(quán)重矩陣的計(jì)算公式為:

    7.根據(jù)權(quán)利要求6所述的一種跨模態(tài)視觸覺數(shù)據(jù)仿真生成模型,其特征在于:

    8.根據(jù)權(quán)利要求7所述的一種跨模態(tài)視觸覺數(shù)據(jù)仿真生成模型,其特征在于,所述循環(huán)一致性損失的計(jì)算公式如下:

    9.根據(jù)權(quán)利要求8所述的一種跨模態(tài)視觸覺數(shù)據(jù)仿真生成模型,其特征在于,所述訓(xùn)練集的預(yù)處理具體包括:

    10.一種對(duì)權(quán)利要求1所述的跨模態(tài)視觸覺數(shù)據(jù)仿真生成模型的訓(xùn)練裝置,其特征在于,包括:

    ...

    【技術(shù)特征摘要】

    1.一種跨模態(tài)視觸覺數(shù)據(jù)仿真生成模型,其特征在于,包括:

    2.根據(jù)權(quán)利要求1所述的一種跨模態(tài)視觸覺數(shù)據(jù)仿真生成模型,其特征在于,所述第一生成器包括:

    3.根據(jù)權(quán)利要求2所述的一種跨模態(tài)視觸覺數(shù)據(jù)仿真生成模型,其特征在于,所述第一生成器通過如下方法進(jìn)行訓(xùn)練:

    4.根據(jù)權(quán)利要求3所述的一種跨模態(tài)視觸覺數(shù)據(jù)仿真生成模型,其特征在于,步驟s20中的第二注意力-生成對(duì)抗處理包括:

    5.根據(jù)權(quán)利要求4所述的一種跨模態(tài)視觸覺數(shù)據(jù)仿真生成模型,其特征在于,步驟s30的第一判別處理,或,第二判別處理包...

    【專利技術(shù)屬性】
    技術(shù)研發(fā)人員:李昕明徐偉良毛逸先羅茜徽劉璐
    申請(qǐng)(專利權(quán))人:華南師范大學(xué)
    類型:發(fā)明
    國別省市:

    網(wǎng)友詢問留言 已有0條評(píng)論
    • 還沒有人留言評(píng)論。發(fā)表了對(duì)其他瀏覽者有用的留言會(huì)獲得科技券。

    1
    主站蜘蛛池模板: 亚洲性无码AV中文字幕| 精品无码黑人又粗又大又长| 久久无码人妻精品一区二区三区| 国产成人无码精品久久久免费| 五月丁香六月综合缴清无码| 亚洲国产成人精品无码区花野真一| 无码少妇A片一区二区三区| 色窝窝无码一区二区三区| 韩国精品一区二区三区无码视频 | 无码人妻丰满熟妇区免费| 无码国产精品一区二区免费式影视| 中文字幕无码第1页| 国产成人精品无码一区二区老年人| 日韩国产精品无码一区二区三区| 亚洲中文字幕无码永久在线| 国产精品无码国模私拍视频| 97久久精品无码一区二区| 亚洲热妇无码AV在线播放 | 无码国模国产在线无码精品国产自在久国产| 国精品无码A区一区二区| yy111111电影院少妇影院无码| 亚洲av无码不卡久久| 亚洲综合无码一区二区三区| 国产AV无码专区亚洲精品| 无码人妻精品一区二区三区久久| 成年无码av片在线| 亚洲精品无码日韩国产不卡?V | 亚洲av纯肉无码精品动漫| 无码孕妇孕交在线观看| 色爱无码AV综合区| 无码性午夜视频在线观看| 日韩精品无码免费一区二区三区| 亚洲精品~无码抽插| 亚洲成AV人片在线播放无码| 在线精品无码字幕无码AV| 亚洲成AV人片在线播放无码| 日韩精品无码AV成人观看| 免费无码一区二区三区| 久久午夜福利无码1000合集| 18禁免费无码无遮挡不卡网站| 亚洲日韩精品无码专区加勒比☆|