• 
    <ul id="o6k0g"></ul>
    <ul id="o6k0g"></ul>

    語音智能識別清洗方法技術

    技術編號:15692528 閱讀:166 留言:0更新日期:2017-06-24 06:37
    本發明專利技術公開的語音智能識別清洗方法,包括步驟:獲取用戶輸入的原始語音信息;利用第一語音處理方法對原始語音信息進行語音增強和濾波,得到處理后的語音信息;利用第二語音處理方法對處理后的語音信息中的聲學特征進行識別提?。桓鶕崛〉穆晫W特征,識別出第一語音識別結果;通過語言模型對第一語音識別結果進行清洗糾錯,得到第二語音識別結果;將第二語音識別結果作為語音識別結果進行輸出。本發明專利技術提高了計算機對語音識別各階段數據的清洗糾錯能力,使對語音識別的處理結果更加準確。

    Speech intelligent identification cleaning method

    The invention discloses a speech recognition method comprises the steps of: cleaning, the original speech information acquiring user input; the first voice processing method for speech enhancement and filtering of the original speech information, get voice information processing; acoustic characteristics of speech information processing after the recognition of the second voice processing method according to the acoustics; feature extraction, first identify the speech recognition results; the first speech recognition results for error correction by cleaning the language model, second speech recognition results; second speech recognition results as speech recognition results are output. The invention improves the cleaning and error correcting capability of the computer to each stage of the speech recognition, and makes the processing result of the speech recognition more accurate.

    【技術實現步驟摘要】
    語音智能識別清洗方法
    本專利技術涉及語音識別
    ,特別涉及語音智能識別清洗方法。
    技術介紹
    在近年來,語音識別技術取得顯著進步,已經從實驗室走向市場。在實際應用中,例如智能助理Siri,通過識別用戶的語音輸入信息,自動完成和用戶的交互。目前,進行語音識別時,環境噪聲對語音識別的識別率影響很大,同時,對原始語音信息的處理方法也會對識別結果有一定的影響,除此之外,不同的人還有發音習慣上的差別,使用單一聲學特征進行識別會是語音識別的識別率受到明顯影響。由于語音識別的識別率不夠高,導致使用語音進行大數據分析面臨較大的困難。
    技術實現思路
    為解決以上問題,本專利技術提供一種語音智能識別清洗方法,用以解決語音識別的識別率不高的問題,包括步驟:獲取用戶輸入的原始語音信息;利用第一語音處理方法對原始語音信息進行語音增強和濾波,得到處理后的語音信息;利用第二語音處理方法對處理后的語音信息中的聲學特征進行識別提?。桓鶕崛〉穆晫W特征,識別出第一語音識別結果;通過語言模型對第一語音識別結果進行清洗糾錯,得到第二語音識別結果;將第二語音識別結果作為語音識別結果進行輸出。優選的,所述第一語音處理方法,包括對原始語音信息進行語音增強,所用增強方法為減譜法,所用減譜公式為:PS(ω)=max{0,Py(ω)-[αPn1(ω)+(1-α)Pn2(ω)]}其中,PS(ω)為輸出語音信息的功率譜,Py(ω)為原始語音信息的功率譜,Pn1(ω)為發聲前的“寂靜段”的功率譜,Pn2(ω)為發聲結束后的“寂靜段”的功率譜,α為值在0到1之間的權重系數,t1為發聲前的“寂靜段”結束時的時間點,t2為發聲結束后的“寂靜段”開始時的時間點,t為當前所要處理的語音信息的時間點。優選的,所述第一語音處理方法,包括對語音增強后的原始語音信息進行濾波,所用濾波方法為通過帶通濾波器進行濾波。優選的,所述聲學特征包括:Mel頻段倒譜系數(MFCC)和過零峰值幅度(ZCPA)。優選的,所述利用第二語音處理方法對處理后的語音信息中的聲學特征進行識別提取,包括,對處理后的語音信息進行預加重、分幀和加窗,加窗所用的窗函數為:其中,w(n)為窗函數的值,N為幀長,n為采樣點。優選的,所述根據提取的聲學特征,識別出第一語音識別結果,所用方法為通過HMM-GMM模型或RNN-GMM模型進行識別。優選的,所述通過語言模型對第一語音識別結果進行清洗糾錯,得到第二語音識別結果,包括:結合語義模型對第一語音識別結果進行清洗糾錯。本專利技術的一些有益效果可以包括:通過本專利技術的方法,可以顯著降低環境噪聲對語音識別的識別率的影響,本專利技術對通過優化對原始語音信息的處理和使用多種聲學特征,使語音識別的識別率有較大提高,再結合語言模型的使用,大大提高了語音識別的識別率。本專利技術提高了計算機對語音識別各階段數據的清洗糾錯能力,使對語音識別的處理結果更加準確。本專利技術的其它特征和優點將在隨后的說明書中闡述,并且,部分地從說明書中變得顯而易見,或者通過實施本專利技術而了解。本專利技術的目的和其他優點可通過在所寫的說明書、權利要求書、以及附圖中所特別指出的結構來實現和獲得。下面通過附圖和實施例,對本專利技術的技術方案做進一步的詳細描述。附圖說明附圖用來提供對本專利技術的進一步理解,并且構成說明書的一部分,與本專利技術的實施例一起用于解釋本專利技術,并不構成對本專利技術的限制。在附圖中:圖1為本專利技術實施例中一種語音智能識別清洗方法的流程圖。具體實施方式以下結合附圖對本專利技術的優選實施例進行說明,應當理解,此處所描述的優選實施例僅用于說明和解釋本專利技術,并不用于限定本專利技術。圖1為本專利技術實施例中一種語音智能識別清洗方法的流程圖,如圖1所示,包括步驟:步驟S101、獲取用戶輸入的原始語音信息;步驟S102、利用第一語音處理方法對原始語音信息進行語音增強和濾波,得到處理后的語音信息;步驟S103、利用第二語音處理方法對處理后的語音信息中的聲學特征進行識別提?。徊襟ES104、根據提取的聲學特征,識別出第一語音識別結果;步驟S105、通過語言模型對第一語音識別結果進行清洗糾錯,得到第二語音識別結果;步驟S106、將第二語音識別結果作為語音識別結果進行輸出。在一個實施例中,第一語音處理方法,包括對原始語音信息進行語音增強,所用增強方法為減譜法,所用減譜公式為:PS(ω)=max{0,Py(ω)-[αPn1(ω)+(1-α)Pn2(ω)]}其中,PS(ω)為輸出語音信息的功率譜,Py(ω)為原始語音信息的功率譜,Pn1(ω)為發聲前的“寂靜段”的功率譜,“寂靜段”為原始語音信息當中被識別為沒有發音的時間段,可通過現有技術對其識別,Pn2(ω)為發聲結束后的“寂靜段”的功率譜,α為值在0到1之間的權重系數,t1為發聲前的“寂靜段”結束時的時間點,t2為發聲結束后的“寂靜段”開始時的時間點,t為當前所要處理的語音信息的時間點(其值為當前所要處理的語音信息的開始的時間點和結束的時間點的算術平均值)。在另一個實施例中,減譜公式還可以表示為:其中,αi為值在0到1之間的權重系數,且∑iαi=1,Pni(ω)為某一“寂靜段”的功率譜。通過考慮2個或更多的“寂靜段”的功率譜,同時考慮各“寂靜段”與當前所要處理的語音信息的時間點的靠近關系,可以更準確的估計當前所要處理的語音信息中包含的環境噪聲。在一個實施例中,第一語音處理方法,包括對語音增強后的原始語音信息進行濾波,所用濾波方法為通過帶通濾波器進行濾波。該帶通濾波器的上、下截至頻率分別是4500Hz和60Hz,采樣頻率是10kHz。通過這種濾波器濾波,即可以防止混疊干擾,又能抑制50Hz的電源工頻干擾,使后續處理的效果更準確。在一個實施例中,所述聲學特征包括:Mel頻段倒譜系數(MFCC)和過零峰值幅度(ZCPA)。在一個實施例中,采用的聲學特征LPCC、MFCC和ZCPA,在對某一音素進行識別時,分別使用LPCC、MFCC和ZCPA作為聲學特征進行識別,并根據預設給LPCC、MFCC和ZCPA的權重系數,對某一音素的識別結果進行加權判斷,得到該音素的識別結果。通過使用多個聲學特征,可以使得進行語音識別的時候,抗環境噪聲能力更好,有修正使用單一聲學特征進行識別時造成的識別錯誤的能力,能夠提高語音識別的精度。在一個實施例中,利用第二語音處理方法對處理后的語音信息中的聲學特征進行識別提取,包括,對處理后的語音信息進行預加重、分幀和加窗,加窗所用的窗函數為:其中,w(n)為窗函數的值,N為幀長,n為采樣點。該窗函數與標準MFCC提取過程中使用的漢明(Hamming)窗相比,能夠在保持窗函數主瓣寬度基本不變的情況下,更有效的抑制旁瓣,可以有效的減小對原始語音信息處理過程中引入的誤差,使對MFCC等聲學特征的提取更加準確。在一個實施例中,根據提取的聲學特征,識別出第一語音識別結果,所用方法為通過HMM-GMM模型或RNN-GMM模型進行識別。在一個實施例中,通過HMM-GMM模型對提取的聲學特征進行識別,所用方法為:其中,為所識別出的語句;W為表示一個語句;P(W)表示語句W出現的概率;λi為預先設置的不同音素識別方法的權重系數,其值大于0;Pi(X|W)為使用音素識別方法i時,由語句W識別為語音X的概率。不同的音素識別方法,本文檔來自技高網...
    語音智能識別清洗方法

    【技術保護點】
    一種語音智能識別清洗方法,其特征在于,包括如下步驟:獲取用戶輸入的原始語音信息;利用第一語音處理方法對原始語音信息進行語音增強和濾波,得到處理后的語音信息;利用第二語音處理方法對處理后的語音信息中的聲學特征進行識別提??;根據提取的聲學特征,識別出第一語音識別結果;通過語言模型對第一語音識別結果進行清洗糾錯,得到第二語音識別結果;將第二語音識別結果作為語音識別結果進行輸出。

    【技術特征摘要】
    1.一種語音智能識別清洗方法,其特征在于,包括如下步驟:獲取用戶輸入的原始語音信息;利用第一語音處理方法對原始語音信息進行語音增強和濾波,得到處理后的語音信息;利用第二語音處理方法對處理后的語音信息中的聲學特征進行識別提??;根據提取的聲學特征,識別出第一語音識別結果;通過語言模型對第一語音識別結果進行清洗糾錯,得到第二語音識別結果;將第二語音識別結果作為語音識別結果進行輸出。2.根據權利要求1所述的方法,其特征在于,包括:所述第一語音處理方法,包括對原始語音信息進行語音增強,所用增強方法為減譜法,所用減譜公式為:PS(ω)=max{0,Py(ω)-[αPn1(ω)+(1-α)Pn2(ω)]}其中,PS(ω)為輸出語音信息的功率譜,Py(ω)為原始語音信息的功率譜,Pn1(ω)為發聲前的寂靜段的功率譜,Pn2(ω)為發聲結束后的寂靜段的功率譜,α為值在0到1之間的權重系數,t1為發聲前的寂靜段結束時的時間點,t2為發聲結束后的寂靜段開始時的時間點,t為當前所要處理的語音信息的時間點。3.根據權利要求1所述的方法,其特征在于,包括:所述第一語音處理方法,包括對語音增強后...

    【專利技術屬性】
    技術研發人員:劉春明
    申請(專利權)人:上海云信留客信息科技有限公司,
    類型:發明
    國別省市:上海,31

    網友詢問留言 已有0條評論
    • 還沒有人留言評論。發表了對其他瀏覽者有用的留言會獲得科技券。

    1
    主站蜘蛛池模板: 91精品日韩人妻无码久久不卡| 无码日本精品XXXXXXXXX| 亚洲av中文无码乱人伦在线观看| 日日摸夜夜添无码AVA片 | 无码中文字幕乱在线观看| JAVA性无码HD中文| av无码人妻一区二区三区牛牛 | 亚洲精品高清无码视频| 亚洲av专区无码观看精品天堂| 人妻丰满?V无码久久不卡| 久久精品国产亚洲AV无码娇色| 免费无码午夜福利片| 中文字幕av无码一二三区电影| 狠狠躁天天躁中文字幕无码| 国产成人无码AV片在线观看| 亚洲av片不卡无码久久| 亚洲av福利无码无一区二区| 成人A片产无码免费视频在线观看 成人无码AV一区二区 | 亚洲av无码一区二区三区四区| 国产自无码视频在线观看| 无码午夜人妻一区二区不卡视频| 精品亚洲AV无码一区二区| 无码H肉动漫在线观看| 国产网红无码精品视频| 亚洲精品无码高潮喷水在线| 亚洲精品无码久久久| 免费无码午夜福利片| 东京热无码av一区二区| 国产成人无码A区在线观看视频| 精品国产AV无码一区二区三区| 久久久久无码精品国产app| 精品少妇人妻av无码久久| 久久无码人妻一区二区三区| 无码人妻精品一区二区三区99仓本 | 亚洲精品无码久久一线| 亚洲AV无码乱码在线观看富二代 | 日韩人妻无码精品无码中文字幕| 成人免费无码大片a毛片| 免费人妻av无码专区| 国产免费久久久久久无码| 亚洲精品无码成人AAA片|