• 
    <ul id="o6k0g"></ul>
    <ul id="o6k0g"></ul>
    普強(qiáng)時(shí)代珠海橫琴信息技術(shù)有限公司專利技術(shù)

    普強(qiáng)時(shí)代珠海橫琴信息技術(shù)有限公司共有93項(xiàng)專利

    • 一種語(yǔ)音喚醒的交互響應(yīng)方法和系統(tǒng),主要用于檢測(cè)語(yǔ)音交互系統(tǒng)喚醒之后用戶是否有發(fā)話。將喚醒之后的給定時(shí)間窗口分成不同的區(qū)域,在不同的區(qū)域,采用不同的技術(shù)手段進(jìn)行處理;其中,在喚醒詞檢測(cè)后緊鄰的時(shí)間區(qū)域誤觸發(fā)區(qū)域內(nèi)檢測(cè)是否存在用戶發(fā)話,并判...
    • 一種智能外呼機(jī)器人自動(dòng)判別虛擬號(hào)碼電話狀態(tài)的方法和系統(tǒng),智能外呼機(jī)器人外呼虛擬號(hào)碼,并接收虛擬電話平臺(tái)的接通信令;智能外呼機(jī)器人收到所述虛擬電話平臺(tái)的接通信令后,開啟語(yǔ)音識(shí)別;如果所述智能外呼機(jī)器人的語(yǔ)音識(shí)別系統(tǒng)在預(yù)定時(shí)間內(nèi)沒有檢測(cè)到人...
    • 本發(fā)明提供一種企業(yè)外置托管式電話機(jī)器人系統(tǒng),包括智能電話機(jī)器人平臺(tái)以及企業(yè)中繼網(wǎng)關(guān);其中,所述智能電話機(jī)器人平臺(tái)用于接聽電信運(yùn)營(yíng)商轉(zhuǎn)來(lái)的用戶來(lái)電,與用戶進(jìn)行多輪對(duì)話,和/或依據(jù)用戶需求將電話轉(zhuǎn)接至企業(yè)電話系統(tǒng);所述企業(yè)中繼網(wǎng)關(guān)連接所述智...
    • 本發(fā)明提供一種支持流式輸入的大語(yǔ)言模型構(gòu)建方法及系統(tǒng),方法包括:收集、選擇數(shù)據(jù),并進(jìn)行數(shù)據(jù)預(yù)處理,利用預(yù)訓(xùn)練模型為基礎(chǔ),通過(guò)在預(yù)訓(xùn)練模型上進(jìn)行微調(diào),訓(xùn)練優(yōu)化流式輸入、自回歸輸出方式的大語(yǔ)言模型;預(yù)先設(shè)定數(shù)據(jù)塊的大小,將用戶的輸入數(shù)據(jù)進(jìn)行...
    • 本發(fā)明提供一種結(jié)合會(huì)話歷史的多模態(tài)情感分析方法及系統(tǒng),方法包括:輸入多模態(tài)數(shù)據(jù);對(duì)各模態(tài)的數(shù)據(jù)進(jìn)行預(yù)處理;對(duì)預(yù)處理后的各模態(tài)數(shù)據(jù)進(jìn)行特征提取;將提取的各模態(tài)數(shù)據(jù)特征進(jìn)行特征融合;經(jīng)過(guò)門控機(jī)制,融合長(zhǎng)短期歷史會(huì)話特征和當(dāng)前發(fā)話特征,得到最...
    • 本發(fā)明提供一種基于多頭輸出的大語(yǔ)言模型構(gòu)建訓(xùn)練方法及結(jié)構(gòu),方法包括:將不同模態(tài)的輸入融合成統(tǒng)一的表示,將各個(gè)模態(tài)的編碼進(jìn)行融合,作為大語(yǔ)言模型的輸入,支持多模態(tài)數(shù)據(jù)的輸入,并增加模型訓(xùn)練的穩(wěn)定性;輸入多模態(tài)編碼token,通過(guò)前向推理,...
    • 本發(fā)明提供一種對(duì)大模型智能體輸出單元極致優(yōu)化的方法及系統(tǒng),方法包括:使用壓縮算法對(duì)大模型生成的內(nèi)容進(jìn)行壓縮,直接生成壓縮后的編碼;優(yōu)化大模型輸出的token數(shù)量,對(duì)token進(jìn)行定制化的編碼,包括:工具名和參數(shù)名壓縮、JSON結(jié)構(gòu)壓縮、...
    • 本公開提供了一種用于智能對(duì)話機(jī)器人的流程自動(dòng)化測(cè)試的方法、裝置和系統(tǒng)中,所述大模型引擎接收與智能對(duì)話機(jī)器人對(duì)話測(cè)試流程中的每個(gè)節(jié)點(diǎn)對(duì)應(yīng)的大模型指令,基于每個(gè)所述大模型指令執(zhí)行運(yùn)算并獲得大模型輸出結(jié)果,將每個(gè)所述大模型輸出結(jié)果輸入到所述智...
    • 本公開提供了一種用于智能對(duì)話機(jī)器人的意圖理解準(zhǔn)確率測(cè)試的方法,所述方法包括如下步驟:大模型引擎接收用于所述智能對(duì)話機(jī)器人的意圖理解準(zhǔn)確率測(cè)試的意圖相關(guān)指令;所述大模型引擎基于每個(gè)所述意圖相關(guān)指令執(zhí)行運(yùn)算并獲得所述意圖相關(guān)指令對(duì)應(yīng)的輸出結(jié)...
    • 一種自然語(yǔ)言理解置信度的估計(jì)方法,主要包括以下步驟:獲取用戶的語(yǔ)音信息,并對(duì)所述語(yǔ)音信息進(jìn)行語(yǔ)音識(shí)別,獲得識(shí)別文本信息;針對(duì)所述識(shí)別文本信息進(jìn)行自然語(yǔ)言理解解碼,并針對(duì)各解碼路徑,結(jié)合句子成分,針對(duì)所述識(shí)別文本信息給出各解碼路徑的解碼路...
    • 本發(fā)明提供融合外部詞典的神經(jīng)網(wǎng)絡(luò)信息提取方法及系統(tǒng),涉及信息提取技術(shù)領(lǐng)域,包括將外部實(shí)體詞典加入分詞詞典,根據(jù)外部實(shí)體詞典,從所述外部實(shí)體詞典中搜索存在于所述輸入文本序列中的字詞,使用命名實(shí)體標(biāo)注方法在所述輸入文本序列中標(biāo)出在所述外部實(shí)...
    • 本發(fā)明提供一種基于數(shù)據(jù)生成的聲音克隆方法及系統(tǒng),方法包括:錄制采集用戶少量的語(yǔ)音數(shù)據(jù),用于捕捉用戶的基本音色特征;并得到語(yǔ)音數(shù)據(jù)對(duì)應(yīng)的標(biāo)注文本數(shù)據(jù);使用少量用戶語(yǔ)音數(shù)據(jù)和對(duì)應(yīng)的標(biāo)注,基于zero?shot的聲音克隆系統(tǒng)生成更多用戶音色的...
    • 本發(fā)明提供一種優(yōu)化機(jī)器人外呼系統(tǒng)打斷效果的方法及裝置,方法包括:在外呼對(duì)話流程中設(shè)置隱式收集用戶聲紋信息的節(jié)點(diǎn);自動(dòng)收集用戶聲紋信息;獲取語(yǔ)音輸入信號(hào),進(jìn)行預(yù)處理,提取實(shí)時(shí)聲紋特征,輸入VAD模塊;判斷輸入信號(hào)是噪聲還是語(yǔ)音信號(hào);如為語(yǔ)...
    • 本發(fā)明提供一種基于語(yǔ)法的人機(jī)交互方法及系統(tǒng),涉及人機(jī)交互技術(shù)領(lǐng)域,包括獲取目標(biāo)用戶的語(yǔ)音信息,根據(jù)每個(gè)應(yīng)用頁(yè)面的業(yè)務(wù)邏輯定義與所述業(yè)務(wù)邏輯對(duì)應(yīng)的語(yǔ)法規(guī)則,獲取所述語(yǔ)法規(guī)則中所有的句子和命令,確定所述應(yīng)用頁(yè)面的交互語(yǔ)法;確定所述交互語(yǔ)法中...
    • 一種基于文本生成式的虛擬形象設(shè)計(jì)系統(tǒng)及方法,通過(guò)獲取用戶對(duì)虛擬形象的描述,利用大模型的繪制功能,生成虛擬形象的二維圖像;通過(guò)大模型的建模功能,生成虛擬形象的三維動(dòng)畫模型;通過(guò)大模型的文本轉(zhuǎn)語(yǔ)音功能,生成所述虛擬形象的聲音;基于對(duì)虛擬形象...
    • 本發(fā)明提供基于說(shuō)話人分類的性別、年齡、口音聯(lián)合檢測(cè)方法及系統(tǒng),方法包括:構(gòu)建說(shuō)話人數(shù)據(jù)庫(kù);構(gòu)建基于該說(shuō)話人數(shù)據(jù)庫(kù)的深度神經(jīng)網(wǎng)絡(luò)說(shuō)話人分類模型,采用附加角裕度損失函數(shù)對(duì)訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)說(shuō)話人分類模型;對(duì)輸入的語(yǔ)音數(shù)據(jù)進(jìn)行前向神經(jīng)網(wǎng)絡(luò)計(jì)算,...
    • 本發(fā)明提供一種加速AI大模型輸出函數(shù)調(diào)用的方法及裝置,方法包括:通過(guò)分析用戶上下文信息和當(dāng)前輸入指令,快速識(shí)別并判定用戶指令中是否包含多個(gè)意圖;將包含多意圖的指令分解為多個(gè)單意圖句子,判斷單意圖句子之間是否具有依賴關(guān)系;將單意圖句子輸入...
    • 一種基于語(yǔ)義理解的虛擬形象語(yǔ)音交互系統(tǒng)及方法,通過(guò)獲取用戶發(fā)話,對(duì)所述用戶發(fā)話進(jìn)行理解,并對(duì)所述用戶發(fā)話做出響應(yīng);基于對(duì)所述用戶發(fā)話的理解信號(hào),將所述響應(yīng)動(dòng)作劃分至多個(gè)流程節(jié)點(diǎn);基于用戶發(fā)話所處的不同所述流程節(jié)點(diǎn),生成所述虛擬形象的動(dòng)作...
    • 本發(fā)明提供一種基于語(yǔ)音語(yǔ)義端到端的人機(jī)交互方法及系統(tǒng),方法包括:收集語(yǔ)音數(shù)據(jù)和對(duì)應(yīng)的語(yǔ)義標(biāo)注數(shù)據(jù);數(shù)據(jù)預(yù)處理;提取特征作為輸入信號(hào);設(shè)計(jì)編碼器模塊,將輸入信號(hào)轉(zhuǎn)為離散信號(hào);基于AI大語(yǔ)言模型構(gòu)建端到端模型,將離散信號(hào)和對(duì)應(yīng)的語(yǔ)義標(biāo)注數(shù)據(jù)...
    • 一種基于大模型的推理對(duì)話式語(yǔ)音交互系統(tǒng),對(duì)用戶發(fā)話內(nèi)容打分,區(qū)分發(fā)話內(nèi)容屬于簡(jiǎn)單任務(wù)型指令、或復(fù)雜指令;語(yǔ)義理解模塊用于解析并執(zhí)行簡(jiǎn)單任務(wù)型指令;大模型對(duì)話管理模塊,用于針對(duì)復(fù)雜指令,通過(guò)與用戶的溝通,將復(fù)雜指令轉(zhuǎn)化為一個(gè)或多個(gè)簡(jiǎn)單任務(wù)...
    主站蜘蛛池模板: 亚洲AV无码欧洲AV无码网站| 午夜无码视频一区二区三区| 无码AV片在线观看免费| 亚洲Av综合色区无码专区桃色| 无码国产色欲XXXXX视频| 亚洲AV无码AV日韩AV网站| 无码精品久久一区二区三区| 人妻少妇伦在线无码专区视频 | 亚洲熟妇无码AV不卡在线播放| 无码人妻精品一二三区免费| 日韩精品无码一区二区三区免费| 日日摸日日碰人妻无码| 久久久无码人妻精品无码| 黑人无码精品又粗又大又长| 无码人妻精品一区二区蜜桃百度| 久久久亚洲精品无码| 国模吧无码一区二区三区| 波多野结衣VA无码中文字幕电影| 精品无码人妻一区二区三区品| 国产午夜无码专区喷水| 人妻av无码专区| 免费无码一区二区三区蜜桃大| 伊人天堂av无码av日韩av| 无码囯产精品一区二区免费| 国产亚洲精品a在线无码| 超清无码一区二区三区| 亚洲精品97久久中文字幕无码 | 久久久久亚洲精品无码蜜桃 | 国产无码一区二区在线| 国产午夜激无码av毛片| 日韩精品人妻系列无码av东京| 伊人无码精品久久一区二区 | 亚洲熟妇无码一区二区三区 | 免费精品无码AV片在线观看| 国产激情无码一区二区| 亚洲成AV人片在线观看无码| 亚洲av永久无码精品秋霞电影影院| 免费无码又爽又刺激网站直播| 国产精品成人无码久久久久久| 波多野结衣AV无码| 日韩欧国产精品一区综合无码|