• 
    <ul id="o6k0g"></ul>
    <ul id="o6k0g"></ul>

    一種語音識別的校正方法及裝置制造方法及圖紙

    技術編號:15692542 閱讀:318 留言:0更新日期:2017-06-24 06:39
    本發明專利技術實施例公開了一種語音識別的校正方法及裝置,該方法包括:根據設定檢測設備的檢測數據確定用戶所處的當前應用場景;在所述當前應用場景下對檢測到的聲音進行語音識別;基于所述當前應用場景對應的深度學習模型對語音識別得到的語料進行深度學習,獲取學習結果;根據所述學習結果對語音識別的結果進行校正。本發明專利技術實施例能夠滿足特定應用場景語音識別的要求,具有針對性的對各個應用場景進行語音識別,大大提升了語音識別的準確性,進而促進了人機交互,可應用范圍廣泛。

    Method and device for correcting speech recognition

    The embodiment of the invention discloses a method and a device for correction of speech recognition, the method comprises: according to the current application scenarios of user's data set to determine the detection of detection equipment; to detect the current scenario of voice recognition; the current application scenarios corresponding to deep learning model speech recognition based on the data of deep learning, learning results; corrected according to the study results of speech recognition results. The embodiment of the invention can meet the specific application scenarios of speech recognition, targeted speech recognition on various scenarios, greatly enhance the accuracy of speech recognition, and then promote the man-machine interaction, can be widely used.

    【技術實現步驟摘要】
    一種語音識別的校正方法及裝置
    本專利技術涉及語音處理技術,尤其涉及一種語音識別的校正方法及裝置。
    技術介紹
    隨著科技的發展,人類已進入人工智能時代,人工智能用于延展人類的智慧和能力,模擬人類的思維過程和智能行為,使機器能夠勝任通常需要人類智能才能完成的復雜工作。人工智能的其中一個重要分支包括語音識別、文字翻譯以及語音合成,語音識別技術是機器通過識別和理解過程把輸入的語音信號轉變成相應的文本,實現人與機器的交流;文字翻譯技術是將語音識別到的詞語按照正確的語法翻譯為語句;語音合成技術(TexttoSpeech,簡稱TTS)是將機器產生或外部輸入的文字信息轉變為類似人類表達方式的語音并輸出。目前,科大訊飛、微軟、谷歌等公司研制出的語音識別技術是基于具有龐大的云數據處理能力的大數據平臺計算而來,數據量具有大而廣的特點,可以基本實現人機語言交互,但是,針對特定應用場景下的特定應用語句的識別和翻譯往往是不夠準確的?,F有技術的校正方法中,通常采用統計學或機器學習的方法,逐步過濾獲取校正集合。但是這種方法由于缺乏針對性,對每個用戶的輸入進行校正的過程基本是相同的,因此校正的準確性不高。例如,接收到不同用戶的語音“lihua”,通過初始識別獲取的對應文本為“李華”,可能通通校正為“梨花”、“理化”或者“禮花”,即沒有根據不同的應用場景更具有針對性的獲取校正結果。
    技術實現思路
    本專利技術實施例提供一種語音識別的校正方法及裝置,以解決現有技術中對語音識別結果校正不準確的問題。第一方面,本專利技術實施例提供了一種語音識別的校正方法,包括:根據設定檢測設備的檢測數據確定用戶所處的當前應用場景;在所述當前應用場景下對檢測到的聲音進行語音識別;基于所述當前應用場景對應的深度學習模型對語音識別得到的語料進行深度學習,獲取學習結果;根據所述學習結果對語音識別的結果進行校正。進一步地,所述根據設定檢測設備的檢測數據確定用戶所處的當前應用場景,包括以下的至少一種:對檢測到的聲音進行語音識別,判斷語音識別得到語料所屬的語料集對應的應用場景;通過定位模塊檢測移動終端所在的位置,獲取用戶所處的當前應用場景;通過藍牙數字信號處理設備檢測應用場景的特征,根據所述特征確定當前應用場景。進一步地,所述根據設定檢測設備的檢測數據確定用戶所處的當前應用場景之前,還包括:使用聚類算法對各個應用場景下的語料庫進行分組,根據所述分組的結果提取語料特征;對所述語料特征進行訓練,創建對應各個應用場景的深度學習模型。進一步地,所述根據所述學習結果對語音識別的結果進行校正,包括:如果所述學習結果為所述語音識別的結果與當前應用場景不匹配,將所述語音識別的結果校正為當前應用場景下對應的結果。進一步地,所述語料庫包括:已存儲的用戶輸入的語料、經過篩選的語料和/或校正語音識別的結果得到的語料。第二方面,本專利技術實施例還提供了一種語音識別的校正裝置,包括:場景確定模塊,用于根據設定檢測設備的檢測數據確定用戶所處的當前應用場景;語音識別模塊,用于在所述當前應用場景下對檢測到的聲音進行語音識別;深度學習模塊,用于基于所述當前應用場景對應的深度學習模型對語音識別得到的語料進行深度學習,獲取學習結果;校正模塊,用于根據所述學習結果對語音識別的結果進行校正。進一步地,所述場景確定模塊包括:第一確定單元,用于對檢測到的聲音進行語音識別,判斷語音識別得到語料所屬的語料集對應的應用場景;第二確定單元,用于通過定位模塊檢測移動終端所在的位置,獲取用戶所處的當前應用場景;第三確定單元,用于通過藍牙數字信號處理設備檢測應用場景的特征,根據所述特征確定當前應用場景。進一步地,所述裝置還包括:特征提取單元,用于使用聚類算法對各個應用場景下的語料庫進行分組,根據所述分組的結果提取語料特征;模型創建單元,用于對所述語料特征進行訓練,創建對應各個應用場景的深度學習模型。進一步地,所述校正模塊包括:校正單元,用于如果所述學習結果為所述語音識別的結果與當前應用場景不匹配,將所述語音識別的結果校正為當前應用場景下對應的結果。進一步地,所述語料庫包括:已存儲的用戶輸入的語料、經過篩選的語料和/或校正語音識別的結果得到的語料。本專利技術實施例提供了一種語音識別的校正方法及裝置,通過獲取檢測數據來確定當前應用場景,將語音識別得到的語料在當前應用場景對應的深度學習模型中進行深度學習,對與當前應用場景不匹配的語音識別的結果進行校正,替換為正確的文字翻譯結果,能夠滿足特定應用場景語音識別的要求,具有針對性的對各個應用場景進行語音識別,大大提升了語音識別的準確性,進而促進了人機交互,使人與機器能夠有效的溝通交流,提升了用戶體驗感,可應用范圍廣泛。附圖說明圖1是本專利技術實施例一中的一種語音識別的校正方法的流程圖;圖2是本專利技術實施例二中的一種語音識別的校正方法的流程圖;圖3a是本專利技術實施例三中的一種語音識別的校正方法的流程圖;圖3b是本專利技術實施例三中的一種語音識別的校正方法的示意圖;圖4是本專利技術實施例四中的一種語音識別的校正方法的流程圖;圖5是本專利技術實施例五中的一種語音識別的校正裝置的結構示意圖。具體實施方式下面結合附圖和實施例對本專利技術作進一步的詳細說明。可以理解的是,此處所描述的具體實施例僅僅用于解釋本專利技術,而非對本專利技術的限定。另外還需要說明的是,為了便于描述,附圖中僅示出了與本專利技術相關的部分而非全部結構。實施例一圖1為本專利技術實施例一提供的一種語音識別的校正方法的流程圖,本實施例可適用于根據當前應用場景來進行校正語音識別的結果的情況,該方法可以由一種語音識別的校正裝置來執行,該裝置可以采用軟件和/或硬件的方式實現,一般集成于具有語音識別功能的設備中。本專利技術實施例一的方法具體包括:S101、根據設定檢測設備的檢測數據確定用戶所處的當前應用場景。中國的語言博大精深,對漢語進行語音識別是具有一定難度的,哪怕僅僅是一個語音音調的不同,甚至說即使是語音的音調完全相同,所要表達的意義就是截然不同的,所以,需要檢測用戶所處于的當前應用場景,根據不同的應用場景來對用戶使用的特定應用場景下的語料進行識別和判斷,使語音識別的最終結果更加準確。使用設定檢測設備能夠檢測出當前的應用環境,從而確定用戶所處于的當前應用場景。S102、在所述當前應用場景下對檢測到的聲音進行語音識別。具體的,在確定了用戶所處于的當前應用場景之后,對檢測到的聲音進行語音識別,獲取語音識別的結果,即獲取通過語音識別得到的語料。S103、基于所述當前應用場景對應的深度學習模型對語音識別得到的語料進行深度學習,獲取學習結果。具體的,首先創建對應各個應用場景的深度學習模型,建立模擬人腦進行分析學習的神經網絡,對語音識別得到的語料進行深度的學習和分析,包括語義、語音、語調、語境以及語法等,判斷語音識別的初步結果和當前的應用場景是否是匹配的,判斷語音識別得到的語料是否是準確的。S104、根據所述學習結果對語音識別的結果進行校正。具體的,經過深度學習后,如果語音識別得到的語料是不準確的,則對語音識別的結果進行校正,將語音識別結果翻譯為正確的文字,替換之前的語音識別結果。本實施例中,首先確定用戶所處于的當前應用場景,結合當前應用場景,對語音識別得到的語料進行深度學習,如果語音識別得到的語料是不準確的,則根本文檔來自技高網...
    一種語音識別的校正方法及裝置

    【技術保護點】
    一種語音識別的校正方法,其特征在于,包括:根據設定檢測設備的檢測數據確定用戶所處的當前應用場景;在所述當前應用場景下對檢測到的聲音進行語音識別;基于所述當前應用場景對應的深度學習模型對語音識別得到的語料進行深度學習,獲取學習結果;根據所述學習結果對語音識別的結果進行校正。

    【技術特征摘要】
    1.一種語音識別的校正方法,其特征在于,包括:根據設定檢測設備的檢測數據確定用戶所處的當前應用場景;在所述當前應用場景下對檢測到的聲音進行語音識別;基于所述當前應用場景對應的深度學習模型對語音識別得到的語料進行深度學習,獲取學習結果;根據所述學習結果對語音識別的結果進行校正。2.根據權利要求1所述的方法,其特征在于,所述根據設定檢測設備的檢測數據確定用戶所處的當前應用場景,包括以下的至少一種:對檢測到的聲音進行語音識別,判斷語音識別得到語料所屬的語料集對應的應用場景;通過定位模塊檢測移動終端所在的位置,獲取用戶所處的當前應用場景;通過藍牙數字信號處理設備檢測應用場景的特征,根據所述特征確定當前應用場景。3.根據權利要求1所述的方法,其特征在于,所述根據設定檢測設備的檢測數據確定用戶所處的當前應用場景之前,還包括:使用聚類算法對各個應用場景下的語料庫進行分組,根據所述分組的結果提取語料特征;對所述語料特征進行訓練,創建對應各個應用場景的深度學習模型。4.根據權利要求1所述的方法,其特征在于,所述根據所述學習結果對語音識別的結果進行校正,包括:如果所述學習結果為所述語音識別的結果與當前應用場景不匹配,將所述語音識別的結果校正為當前應用場景下對應的結果。5.根據權利要求3所述的方法,其特征在于,所述語料庫包括:已存儲的用戶輸入的語料、經過篩選的語料和/或校正語音識別的結果得到的語料。6.一種語音識...

    【專利技術屬性】
    技術研發人員:石日儉,賀磊,劉旭,呂曉霞,
    申請(專利權)人:深圳市大乘科技股份有限公司,
    類型:發明
    國別省市:廣東,44

    網友詢問留言 已有0條評論
    • 還沒有人留言評論。發表了對其他瀏覽者有用的留言會獲得科技券。

    1
    主站蜘蛛池模板: 亚洲av无码国产精品色在线看不卡| 国产白丝无码免费视频| 国产精品无码一区二区三级| 高潮潮喷奶水飞溅视频无码| 无码囯产精品一区二区免费| 亚洲中文久久精品无码1| 一本之道高清无码视频| 高清无码v视频日本www| 波多野结衣VA无码中文字幕电影| 无码人妻精品一区二| 少妇无码太爽了不卡视频在线看| 免费A级毛片无码A∨中文字幕下载| 久久久久久AV无码免费网站下载| 免费人成无码大片在线观看| 中文字幕在线无码一区| 久久美利坚合众国AV无码| 久久精品中文无码资源站| 无码福利一区二区三区| 色噜噜综合亚洲av中文无码| 久久久久亚洲精品无码网址色欲| 无码人妻丰满熟妇区五十路百度| 亚洲av永久无码精品网站| 特级无码毛片免费视频尤物| 一区二区三区无码高清视频| mm1313亚洲精品无码又大又粗| 无码人妻一区二区三区兔费| 免费无码又爽又刺激网站直播| 中文字幕无码中文字幕有码| 亚洲AV无码乱码在线观看性色扶| 国产精品爽爽V在线观看无码| 精品久久久久久无码中文字幕一区| 亚洲AV永久无码天堂影院| 亚洲AV无码一区二区二三区软件| 真人无码作爱免费视频| 国产精品无码一二区免费| 在线观看无码AV网站永久免费| 亚洲AV无码乱码在线观看富二代| 性色AV一区二区三区无码| 国产日韩AV免费无码一区二区三区| 亚洲精品无码av人在线观看| 韩日美无码精品无码|