System.ArgumentOutOfRangeException: 索引和長度必須引用該字符串內(nèi)的位置。 參數(shù)名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 在线看片福利无码网址,成人免费一区二区无码视频,亚洲成AV人在线播放无码
  • 
    <ul id="o6k0g"></ul>
    <ul id="o6k0g"></ul>
    當前位置: 首頁 > 專利查詢>井岡山大學專利>正文

    一種基于事實增強與情感覺醒的視頻描述生成方法及介質(zhì)技術(shù)

    技術(shù)編號:40790225 閱讀:11 留言:0更新日期:2024-03-28 19:20
    本發(fā)明專利技術(shù)涉及一種基于事實增強與情感覺醒的視頻描述生成方法及介質(zhì),所述方法包括以下步驟:獲取待描述視頻的視覺特征;以所述視覺特征作為經(jīng)訓練的視頻描述生成模型的輸入,獲得描述語句;其中,所述視頻描述生成模型包括事實啟發(fā)模塊、事實增強模塊和情感覺醒模塊,基于所述事實啟發(fā)模塊、事實增強模塊和情感覺醒模塊的輸出的融合結(jié)果,獲得所述描述語句。與現(xiàn)有技術(shù)相比,本發(fā)明專利技術(shù)為視頻生成的描述語句具有準確性更高,情感語義更加豐富等優(yōu)點。

    【技術(shù)實現(xiàn)步驟摘要】

    本專利技術(shù)涉及視頻描述生成領(lǐng)域,尤其是涉及一種基于事實增強與情感覺醒的視頻描述生成方法及介質(zhì)


    技術(shù)介紹

    1、視頻描述是“視覺-語言”多模態(tài)高層理解研究中的基礎(chǔ)任務。它是給定一段視頻,使用準確得體的自然語言對其中的內(nèi)容進行總結(jié)、歸納并表述出來。該任務在自動解說、自主導航、智能可穿戴設(shè)備開發(fā)等領(lǐng)域具有廣闊的應用前景。目前,研究者基于深度特征開發(fā)了多種效果顯著的模型和算法,生成的描述句子質(zhì)量不斷提升。但當前大部分工作多集中在對視頻事實內(nèi)容的描述上,對其中的情感信息關(guān)注不夠,或者僅簡單賦予如“正面的(positive)”、“負面的(negative)”和“中立的(neural)”等情感標簽,生成的句子缺乏更多的靈活性和生動性,語義豐富程度需要進一步改善。


    技術(shù)實現(xiàn)思路

    1、本專利技術(shù)的目的就是針對目前視頻描述任務中,生成的描述句子情感不夠豐富,表達不夠生動等問題,而提供一種基于事實增強與情感覺醒的視頻描述生成方法及介質(zhì),能夠自然地將情感語義嵌入到生成的描述語句中,進而改善生成句子的整體質(zhì)量。

    2、本專利技術(shù)的目的可以通過以下技術(shù)方案來實現(xiàn):

    3、一種基于事實增強與情感覺醒的視頻描述生成方法,該方法包括以下步驟:

    4、獲取待描述視頻的視覺特征;

    5、以所述視覺特征作為經(jīng)訓練的視頻描述生成模型的輸入,獲得描述語句;

    6、其中,所述視頻描述生成模型包括事實啟發(fā)模塊、事實增強模塊和情感覺醒模塊,基于所述事實啟發(fā)模塊、事實增強模塊和情感覺醒模塊的輸出的融合結(jié)果,獲得所述描述語句,所述視頻描述生成模型的訓練過程包括:

    7、以事實啟發(fā)模塊作為序列模型,采用第一數(shù)據(jù)集訓練所述序列模型,所述第一數(shù)據(jù)集為包含事實描述的數(shù)據(jù)集;

    8、在所述序列模型的基礎(chǔ)上,添加事實增強模塊,形成增廣模型,采用第二數(shù)據(jù)集訓練所述增廣模型,所述第二數(shù)據(jù)集為包含事實描述的數(shù)據(jù)集,且其數(shù)據(jù)規(guī)模大于第一數(shù)據(jù)集的數(shù)據(jù)規(guī)模;

    9、在所述增廣模型的基礎(chǔ)上,添加情感覺醒模塊,形成三層次模型,采用第三數(shù)據(jù)集訓練聯(lián)合所述三層次模型,所述第三數(shù)據(jù)集為在第一數(shù)據(jù)集的基礎(chǔ)上增加情感信息的數(shù)據(jù)集。

    10、進一步地,所述事實啟發(fā)模塊為采用非因子分解的方式構(gòu)建的兩層lstm序列模型,基于第一數(shù)據(jù)集中提取的語言特征和視頻特征進行模型優(yōu)化。

    11、進一步地,訓練過程中,采用跨時間步的梯度回傳算法對所述事實啟發(fā)模塊中的參數(shù)進行更新優(yōu)化。

    12、進一步地,所述事實增強模塊為采用非因子分解的方式構(gòu)建的兩層lstm序列模型,基于第二數(shù)據(jù)集中提取的語言特征和視頻特征進行模型優(yōu)化。

    13、進一步地,所述情感覺醒模塊為一層lstm序列模型,基于第三數(shù)據(jù)集中提取的語言特征進行模型優(yōu)化。

    14、進一步地,所述視頻特征采用預訓練的cnn網(wǎng)絡(luò)提取,并使用線性層降維獲得。

    15、進一步地,所述語言特征采用one-hot方式編碼,并使用嵌入層降維獲得。

    16、進一步地,訓練所述增廣模型時,所述事實啟發(fā)模塊采用微調(diào)方式進行參數(shù)更新,所述事實增強模塊采用全訓練方式進行參數(shù)更新。

    17、進一步地,獲得描述語句時,采用多層次深度序列融合的方式對所述視頻描述生成模型中每個模塊在每個時間步上的概率輸出向量進行逐元素后期融合,其最終概率分值的最大值所對應的詞匯作為該時間步上的預測輸出。

    18、本專利技術(shù)還提供一種計算機可讀存儲介質(zhì),包括供電子設(shè)備的一個或多個處理器執(zhí)行的一個或多個程序,所述一個或多個程序包括用于執(zhí)行如上所述基于事實增強與情感覺醒的視頻描述生成方法的指令。

    19、與現(xiàn)有技術(shù)相比,本專利技術(shù)具有以下有益效果:

    20、本專利技術(shù)設(shè)計深度增量學習策略,通過逐層添加深度序列模塊,構(gòu)建具有更深序列網(wǎng)絡(luò)的視頻描述生成模型,對訓練的數(shù)據(jù)集進行增強處理、情感描述處理,并采用逐層增加或擴大樣本空間的方式對模型進行聯(lián)合優(yōu)化,有效提供模型表達能力,能夠為視頻生成比同類其他視頻描述模型蘊含更多情感語義、更豐富表達的描述語句,準確性更高。

    本文檔來自技高網(wǎng)...

    【技術(shù)保護點】

    1.一種基于事實增強與情感覺醒的視頻描述生成方法,其特征在于,該方法包括以下步驟:

    2.根據(jù)權(quán)利要求1所述的基于事實增強與情感覺醒的視頻描述生成方法,其特征在于,所述事實啟發(fā)模塊為采用非因子分解的方式構(gòu)建的兩層LSTM序列模型,基于第一數(shù)據(jù)集中提取的語言特征和視頻特征進行模型優(yōu)化。

    3.根據(jù)權(quán)利要求1所述的基于事實增強與情感覺醒的視頻描述生成方法,其特征在于,訓練過程中,采用跨時間步的梯度回傳算法對所述事實啟發(fā)模塊中的參數(shù)進行更新優(yōu)化。

    4.根據(jù)權(quán)利要求1所述的基于事實增強與情感覺醒的視頻描述生成方法,其特征在于,所述事實增強模塊為采用非因子分解的方式構(gòu)建的兩層LSTM序列模型,基于第二數(shù)據(jù)集中提取的語言特征和視頻特征進行模型優(yōu)化。

    5.根據(jù)權(quán)利要求1所述的基于事實增強與情感覺醒的視頻描述生成方法,其特征在于,所述情感覺醒模塊為一層LSTM序列模型,基于第三數(shù)據(jù)集中提取的語言特征進行模型優(yōu)化。

    6.根據(jù)權(quán)利要求1、2、4任一所述的基于事實增強與情感覺醒的視頻描述生成方法,其特征在于,所述視頻特征采用預訓練的CNN網(wǎng)絡(luò)提取,并使用線性層降維獲得。

    7.根據(jù)權(quán)利要求2、4、5任一所述的基于事實增強與情感覺醒的視頻描述生成方法,其特征在于,所述語言特征采用One-hot方式編碼,并使用嵌入層降維獲得。

    8.根據(jù)權(quán)利要求1所述的基于事實增強與情感覺醒的視頻描述生成方法,其特征在于,訓練所述增廣模型時,所述事實啟發(fā)模塊采用微調(diào)方式進行參數(shù)更新,所述事實增強模塊采用全訓練方式進行參數(shù)更新。

    9.根據(jù)權(quán)利要求1所述的基于事實增強與情感覺醒的視頻描述生成方法,其特征在于,獲得描述語句時,采用多層次深度序列融合的方式對所述視頻描述生成模型中每個模塊在每個時間步上的概率輸出向量進行逐元素后期融合,其最終概率分值的最大值所對應的詞匯作為該時間步上的預測輸出。

    10.一種計算機可讀存儲介質(zhì),其特征在于,包括供電子設(shè)備的一個或多個處理器執(zhí)行的一個或多個程序,所述一個或多個程序包括用于執(zhí)行如權(quán)利要求1-9任一所述基于事實增強與情感覺醒的視頻描述生成方法的指令。

    ...

    【技術(shù)特征摘要】

    1.一種基于事實增強與情感覺醒的視頻描述生成方法,其特征在于,該方法包括以下步驟:

    2.根據(jù)權(quán)利要求1所述的基于事實增強與情感覺醒的視頻描述生成方法,其特征在于,所述事實啟發(fā)模塊為采用非因子分解的方式構(gòu)建的兩層lstm序列模型,基于第一數(shù)據(jù)集中提取的語言特征和視頻特征進行模型優(yōu)化。

    3.根據(jù)權(quán)利要求1所述的基于事實增強與情感覺醒的視頻描述生成方法,其特征在于,訓練過程中,采用跨時間步的梯度回傳算法對所述事實啟發(fā)模塊中的參數(shù)進行更新優(yōu)化。

    4.根據(jù)權(quán)利要求1所述的基于事實增強與情感覺醒的視頻描述生成方法,其特征在于,所述事實增強模塊為采用非因子分解的方式構(gòu)建的兩層lstm序列模型,基于第二數(shù)據(jù)集中提取的語言特征和視頻特征進行模型優(yōu)化。

    5.根據(jù)權(quán)利要求1所述的基于事實增強與情感覺醒的視頻描述生成方法,其特征在于,所述情感覺醒模塊為一層lstm序列模型,基于第三數(shù)據(jù)集中提取的語言特征進行模型優(yōu)化。

    6.根據(jù)權(quán)利要求1、2、4任一所述的基于事實增強與情感覺醒的視頻描述生...

    【專利技術(shù)屬性】
    技術(shù)研發(fā)人員:湯鵬杰譚云蘭張艾
    申請(專利權(quán))人:井岡山大學
    類型:發(fā)明
    國別省市:

    網(wǎng)友詢問留言 已有0條評論
    • 還沒有人留言評論。發(fā)表了對其他瀏覽者有用的留言會獲得科技券。

    1
    主站蜘蛛池模板: 亚洲av中文无码| 无码专区6080yy国产电影| 久久亚洲AV成人无码国产| 亚洲AV无码AV日韩AV网站| 深夜a级毛片免费无码| 人妻丰满av无码中文字幕| 狼人无码精华AV午夜精品| 无码毛片AAA在线| 亚洲综合无码精品一区二区三区| 亚洲日韩精品A∨片无码加勒比| 中文字幕在线无码一区| 亚洲啪AV永久无码精品放毛片| 国产精品无码无卡在线播放| 内射人妻无码色AV天堂| 久久亚洲精品成人av无码网站 | 亚洲av中文无码乱人伦在线观看 | 免费无码专区毛片高潮喷水 | 人妻无码一区二区三区| 亚洲AV无码乱码麻豆精品国产| 中文字幕无码乱人伦| 精品无码人妻久久久久久| 国产精品无码免费播放| 亚洲a∨无码一区二区| 久久久久亚洲av无码专区喷水| 国产免费无码AV片在线观看不卡| 国产在线无码视频一区| 国产精品无码免费视频二三区| 亚洲乱亚洲乱妇无码| 亚洲AV无码专区亚洲AV桃| 亚洲中文字幕久久精品无码VA| 免费人妻无码不卡中文字幕系| 亚洲AV无码精品无码麻豆| 久久午夜夜伦鲁鲁片免费无码| 最新国产精品无码| 亚洲韩国精品无码一区二区三区 | 午夜亚洲AV日韩AV无码大全| 狠狠躁天天躁中文字幕无码 | 国产成人A人亚洲精品无码| 国产成人精品无码片区在线观看| 伊人久久综合无码成人网| 无码精品日韩中文字幕|