System.ArgumentOutOfRangeException: 索引和長度必須引用該字符串內(nèi)的位置。 參數(shù)名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 一本天堂ⅴ无码亚洲道久久,无码少妇一区二区浪潮免费,无码日韩人妻精品久久蜜桃
  • 
    <ul id="o6k0g"></ul>
    <ul id="o6k0g"></ul>

    基于生成式AI的情感連接交互方法、系統(tǒng)及設備技術方案

    技術編號:43788677 閱讀:12 留言:0更新日期:2024-12-24 16:21
    本發(fā)明專利技術屬于人工智能技術領域,公開基于生成式AI的情感連接交互方法、系統(tǒng)及設備,所述方法包括:將獲取的語音信息轉換為語音文本,并實施分詞處理,將詞元映射至連續(xù)的向量空間,獲得文本嵌入向量,利用聲學特征提取技術對語音信息提取聲學嵌入向量,將文本嵌入向量和聲學嵌入向量通過基于注意力機制的卷積神經(jīng)網(wǎng)絡,確定語音信息的情感分類;對基于詞典的分詞算法處理后的數(shù)據(jù)進行自然語言處理,確定語音信息的話題領域;根據(jù)情感分類、話題領域、用戶信息以及歷史交互數(shù)據(jù),生成用戶情感反饋信息,實現(xiàn)文本與聲學在特征級別的有效融合,避免了后期融合方法因不同處理框架所得分類結果可能存在的非互補性而導致的性能下降。

    【技術實現(xiàn)步驟摘要】

    本專利技術屬于人工智能,具體涉及基于生成式ai的情感連接交互方法、系統(tǒng)及設備。


    技術介紹

    1、在當前的數(shù)字化時代背景下,生成式ai作為一種前沿技術,展現(xiàn)出了從大規(guī)模數(shù)據(jù)集中學習和創(chuàng)造新穎原創(chuàng)內(nèi)容的能力。然而,盡管傳統(tǒng)生成式ai技術已取得顯著進展,但其交互模式仍存在局限性,現(xiàn)有系統(tǒng)大多遵循“問答”范式,需用戶明確提出問題或需求后方能給予相應反饋,這種被動響應機制限制了ai在對話中的主動性與互動性。

    2、此外,當前生成式ai主要依賴于文本分析技術,這一方法在處理語言內(nèi)容時忽略了理解和感知用戶情感狀態(tài)及心理需求不可或缺的語音特征。

    3、因此,亟需一種能夠在日常生活中為經(jīng)歷孤獨感、壓力或尋求情感認同的成年人提供便捷式情感慰藉的生成式ai情感連接交互方法與設備,傾聽和回應用戶心聲,填補用戶的情感空白。


    技術實現(xiàn)思路

    1、本專利技術針對上述現(xiàn)有技術存在的技術問題,提供了基于生成式ai的情感連接交互方法、系統(tǒng)及設備。

    2、本專利技術的目的是通過以下技術方案來實現(xiàn)的:

    3、第一方面,本專利技術提供基于生成式ai的情感連接交互方法,所述方法包括以下步驟:

    4、步驟s1,采集用戶信息,設定人機交互方式,通過情感交互設備接收用戶的語音信息;

    5、步驟s2,構建人機交互的情感分析模型,將語音信息作為人機交互的情感分析模型的輸入,利用語音識別引擎將語音信息轉換為語音文本,采用基于詞典的分詞算法對語音文本實施分詞處理,將采用基于詞典的分詞算法處理后的數(shù)據(jù)映射至連續(xù)的向量空間,捕捉語音文本之間的語義關系,獲得文本嵌入向量,利用聲學特征提取技術對語音信息提取聲學嵌入向量;將文本嵌入向量和聲學嵌入向量通過基于注意力機制的卷積神經(jīng)網(wǎng)絡,確定語音信息的情感分類;

    6、步驟s3,對基于詞典的分詞算法處理后的數(shù)據(jù)進行自然語言處理,確定語音信息的話題領域;

    7、步驟s4,利用大語言模型,根據(jù)文本嵌入向量、情感分類、話題領域,得到情感反饋嵌入向量;

    8、步驟s5,利用自然語言生成技術,根據(jù)情感反饋嵌入向量、用戶信息以及歷史交互數(shù)據(jù),生成用戶情感反饋信息。

    9、優(yōu)選的,采用基于詞典的分詞算法對語音文本實施分詞處理具體為:融合雙向最大匹配以及基于深度理解的分詞策略,動態(tài)精準地確定最優(yōu)分詞結果。

    10、優(yōu)選的,提取聲學嵌入向量的具體步驟如下:首先,利用聲學特征提取技術對語音信息,依次提取語音基頻、過零率韻律類特征,梅爾倒譜系數(shù)、頻譜質(zhì)心基于譜的特征,頻率微擾、振幅微擾、頻譜帶寬、頻譜滾降點、均方根能量音質(zhì)類特征,將均方根能量的均值、標準差、最大值、展平成一維數(shù)組的頻譜滾降點和頻譜帶寬以及其他特征的原始形式進行特征拼接,得到聲學特征向量,然后,利用深度神經(jīng)網(wǎng)絡將聲學特征向量轉換為聲學嵌入向量,其中,深度神經(jīng)網(wǎng)絡包括三個全連接層和兩個隨機失活層。

    11、優(yōu)選的,提取聲學嵌入向量前,首先,提取語音信息的短時能量和過零率,然后,采用雙門限端點檢測方法結合短時能量和過零率,確認有效語音段。

    12、優(yōu)選的,步驟s2中,所述將文本嵌入向量和聲學嵌入向量輸入基于注意力機制的卷積神經(jīng)網(wǎng)絡,確定語音信息的情感分類,具體為:

    13、將文本嵌入向量和聲學嵌入向量輸入注意力融合,得到融合嵌入表示:

    14、(1)

    15、其中,表示聲學嵌入向量,表示文本嵌入向量,表示逐元素相乘,表示和特征權重矩陣、表示積特征權重矩陣;

    16、將融合嵌入表示輸入卷積神經(jīng)網(wǎng)絡。卷積神經(jīng)網(wǎng)絡包括三個卷積層、三個整流線性單元relu層和一個全連接層fc:

    17、(2)

    18、(3)

    19、<mstyle displaystyle="true" mathcolor="#000000"><mstyle displaystyle="true" mathcolor="#000000"><mi>f</mi></mstyle><mstyle displaystyle="true" mathcolor="#000000"><msub><mrow /><mstyle displaystyle="true" mathcolor="#000000"><mi>i</mi></mstyle></msub></mstyle><mstyle displaystyle="true" mathcolor="#000000"><mi>=</mi></mstyle><mstyle displaystyle="true" mathcolor="#000000"><mi>r</mi></mstyle><mstyle displaystyle="true" mathcolor="#000000"><mi>e</mi></mstyle><mstyle displaystyle="true" mathcolor="#000000"><mi>s</mi></mstyle><mstyle displaystyle="true" mathcolor="#000000"><mi>h</mi></mstyle><mstyle displaystyle="true" mathcolor="#000000"><mi>a</mi></mstyle><mstyle displaystyle="true" mathcolor="#000000"><mi>p</mi></mstyle><mstyle displaystyle="true" mathcolor="#000000"><mi>e</mi></mstyle><mstyle displaystyle="true" mathcolor="#000000"><mi>(</mi></mstyle><mstyle displaystyle="true" mathcolor="#000000"><mi>r</mi></mstyle><mstyle displaystyle="true" mathcolor="#000000"><msub><mrow /><mstyle displaystyle="true" mathcolor="#00本文檔來自技高網(wǎng)...

    【技術保護點】

    1.基于生成式AI的情感連接交互方法,其特征在于,所述方法包括以下步驟:

    2.根據(jù)權利要求1所述的基于生成式AI的情感連接交互方法,其特征在于,采用基于詞典的分詞算法對語音文本實施分詞處理具體為:融合雙向最大匹配以及基于深度理解的分詞策略,動態(tài)精準地確定最優(yōu)分詞結果。

    3.根據(jù)權利要求1所述的基于生成式AI的情感連接交互方法,其特征在于,提取聲學嵌入向量的具體步驟如下:首先,利用聲學特征提取技術對語音信息,依次提取語音基頻、過零率韻律類特征,梅爾倒譜系數(shù)、頻譜質(zhì)心基于譜的特征,頻率微擾、振幅微擾、頻譜帶寬、頻譜滾降點、均方根能量音質(zhì)類特征,將均方根能量的均值、標準差、最大值、展平成一維數(shù)組的頻譜滾降點和頻譜帶寬以及其他特征的原始形式進行特征拼接,得到聲學特征向量,然后,利用深度神經(jīng)網(wǎng)絡將聲學特征向量轉換為聲學嵌入向量,其中,深度神經(jīng)網(wǎng)絡包括三個全連接層和兩個隨機失活層。

    4.根據(jù)權利要求1所述的基于生成式AI的情感連接交互方法,其特征在于,提取聲學嵌入向量前,首先,提取語音信息的短時能量和過零率,然后,采用雙門限端點檢測方法結合短時能量和過零率,確認有效語音段。

    5.根據(jù)權利要求1所述的基于生成式AI的情感連接交互方法,其特征在于,步驟S2中,所述將文本嵌入向量和聲學嵌入向量通過基于注意力機制的卷積神經(jīng)網(wǎng)絡,確定語音信息的情感分類,具體為:

    6.根據(jù)權利要求1所述的基于生成式AI的情感連接交互方法,其特征在于,步驟S3具體步驟如下:利用詞元構建詞袋模型,并將詞袋模型輸入隱含狄利克雷分布主題模型中,獲得語音信息的話題領域。

    7.基于生成式AI的情感連接交互系統(tǒng),其特征在于,用于實現(xiàn)權利要求1-6任一項所述的方法,所述系統(tǒng)包括語音輸入模塊、語音識別與處理模塊、情感分析模塊、自適應情感模塊、人機交互界面模塊、通信模塊,

    8.基于生成式AI的情感連接交互設備,其特征在于,用于實現(xiàn)權利要求1-6任一項所述方法,包括處理器模塊、音頻接收與發(fā)送模塊、通信模塊、電源模塊和存儲器模塊,

    ...

    【技術特征摘要】

    1.基于生成式ai的情感連接交互方法,其特征在于,所述方法包括以下步驟:

    2.根據(jù)權利要求1所述的基于生成式ai的情感連接交互方法,其特征在于,采用基于詞典的分詞算法對語音文本實施分詞處理具體為:融合雙向最大匹配以及基于深度理解的分詞策略,動態(tài)精準地確定最優(yōu)分詞結果。

    3.根據(jù)權利要求1所述的基于生成式ai的情感連接交互方法,其特征在于,提取聲學嵌入向量的具體步驟如下:首先,利用聲學特征提取技術對語音信息,依次提取語音基頻、過零率韻律類特征,梅爾倒譜系數(shù)、頻譜質(zhì)心基于譜的特征,頻率微擾、振幅微擾、頻譜帶寬、頻譜滾降點、均方根能量音質(zhì)類特征,將均方根能量的均值、標準差、最大值、展平成一維數(shù)組的頻譜滾降點和頻譜帶寬以及其他特征的原始形式進行特征拼接,得到聲學特征向量,然后,利用深度神經(jīng)網(wǎng)絡將聲學特征向量轉換為聲學嵌入向量,其中,深度神經(jīng)網(wǎng)絡包括三個全連接層和兩個隨機失活層。

    4.根據(jù)權利要求1所述的基于生成式ai的情感連接交互方法,其特征在于,提...

    【專利技術屬性】
    技術研發(fā)人員:郭永安,黃葉琪,周沂,王宇翱,
    申請(專利權)人:南京郵電大學,
    類型:發(fā)明
    國別省市:

    網(wǎng)友詢問留言 已有0條評論
    • 還沒有人留言評論。發(fā)表了對其他瀏覽者有用的留言會獲得科技券。

    1
    主站蜘蛛池模板: 亚洲av无码片vr一区二区三区| 亚洲美免无码中文字幕在线| 日韩免费无码一区二区视频| 国产av无码专区亚洲av毛片搜| 中文无码制服丝袜人妻av| 精品欧洲AV无码一区二区男男| 亚洲精品国产日韩无码AV永久免费网 | 久久伊人中文无码| 无码H肉动漫在线观看| 国产乱子伦精品免费无码专区| 久久99精品久久久久久hb无码| 无码人妻精品一区二| 亚洲熟妇无码av另类vr影视| 国产精品无码成人午夜电影| 国模无码视频一区| 青青爽无码视频在线观看| 中文字幕乱妇无码AV在线| 在线看片无码永久免费aⅴ| 精品无码人妻一区二区三区| 成人无码A区在线观看视频| 亚洲高清无码在线观看| 九九在线中文字幕无码| 亚洲AV无码无限在线观看不卡| 亚洲AV无码久久精品蜜桃| 中文字幕人妻三级中文无码视频 | 国产成人亚洲综合无码| 无码人妻丰满熟妇区毛片18| 中文字幕无码免费久久99| 熟妇无码乱子成人精品| 无码人妻久久一区二区三区免费| 日韩精品无码免费专区网站| 超清无码无卡中文字幕| 成人无码网WWW在线观看| 东京热无码一区二区三区av| 潮喷失禁大喷水aⅴ无码| 亚洲爆乳精品无码一区二区三区| 国产在线拍偷自揄拍无码| 高清无码视频直接看| 精品无码人妻夜人多侵犯18| 久久精品无码午夜福利理论片 | 国产a v无码专区亚洲av|