




版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領
文檔簡介
1、人工智能 語音識別技術什么是語音識別技術? 與機器進行語音交流,讓機器明白你說什么,這是人們長期以來夢寐以求的事情。語音識別技術就是讓機器通過識別和理解過程把語音信號轉變為相應的文本或命令的高技術。語音識別技術主要包括特征提取技術、模式匹配準則及模型訓練技術三個方面。語音識別技術車聯網也得到了充分的引用,例如在翼卡車聯網中,只需按一鍵通客服人員口述即可設置目的地直接導航,安全、便捷。兩款語音機器人:SiriCortana語音識別的實現(1) 首先,我們知道聲音實際上是一種波。常見的mp3、wmv等格式都是壓縮格式,必須轉成非壓縮的純波形文件來處理,比如Windows PCM文件,也就是俗稱的w
2、av文件。wav文件里存儲的除了一個文件頭以外,就是聲音波形的一個個點了。下圖是一個波形的示例。語音識別的實現(2) 在開始語音識別之前,有時需要把首尾端的靜音切除,降低對后續步驟造成的干擾。這個靜音切除的操作一般稱為VAD,需要用到信號處理的一些技術。要對聲音進行分析,需要對聲音分幀,也就是把聲音切開成一小段一小段,每小段稱為一幀。分幀操作一般不是簡單的切開,而是使用移動窗函數來實現,這里不詳述。幀與幀之間一般是有交疊的,就像下圖這樣:語音識別的實現(3) 圖中,每幀的長度為25毫秒,每兩幀之間有25-10=15毫秒的交疊。我們稱為以幀長25ms、幀移10ms分幀。 分幀后,語音就變成了很多
3、小段。但波形在時域上幾乎沒有描述能力,因此必須將波形作變換。常見的一種變換方法是提取MFCC特征,根據人耳的生理特性,把每一幀波形變成一個多維向量,可以簡單地理解為這個向量包含了這幀語音的內容信息。這個過程叫做聲學特征提取。實際應用中,這一步有很多細節,聲學特征也不止有MFCC這一種,具體這里不講。 至此,聲音就成了一個12行(假設聲學特征是12維)、N列的一個矩陣,稱之為觀察序列,這里N為總幀數。觀察序列如下圖所示,圖中,每一幀都用一個12維的向量表示,色塊的顏色深淺表示向量值的大小。語音識別的實現(4) 接下來就要介紹怎樣把這個矩陣變成文本了。首先要介紹兩個概念: 音素:單詞的發音由音素構
4、成。對英語,一種常用的音素集是卡內基梅隆大學的一套由39個音素構成的音素集,參見The CMU Pronouncing Dictionary。漢語一般直接用全部聲母和韻母作為音素集,另外漢語識別還分有調無調,不詳述。 狀態:這里理解成比音素更細致的語音單位就行啦。通常把一個音素劃分成3個狀態。 語音識別是怎么工作的呢?實際上一點都不神秘,無非是: 第一步,把幀識別成狀態(難點); 第二步,把狀態組合成音素; 第三步,把音素組合成單詞。語音識別的實現(5) 圖中,每個小豎條代表一幀,若干幀語音對應一個狀態,每三個狀態組合成一個音素,若干個音素組合成一個單詞。也就是說,只要知道每幀語音對應哪個狀態
5、了,語音識別的結果也就出來了。圖中,每個小豎條代表一幀,若干幀語音對應一個狀態,每三個狀態組合成一個音素,若干個音素組合成一個單詞。也就是說,只要知道每幀語音對應哪個狀態了,語音識別的結果也就出來了。 那每幀音素對應哪個狀態呢?有個容易想到的辦法,看某幀對應哪個狀態的概率最大,那這幀就屬于哪個狀態。比如下面的示意圖,這幀對應S3狀態的概率最大,因此就讓這幀屬于S3狀態。語音識別的實現(6) 那這些用到的概率從哪里讀取呢?有個叫“聲學模型聲學模型”的東西,里面存了一大堆參數,通過這些參數,就可以知道幀和狀態對應的概率。獲取這一大堆參數的方法叫做“訓練”,需要使用巨大數量的語音數據,訓練的方法比較
6、繁瑣,這里不講。 但這樣做有一個問題:每一幀都會得到一個狀態號,最后整個語音就會得到一堆亂七八糟的狀態號,相鄰兩幀間的狀態號基本都不相同。假設語音有1000幀,每幀對應1個狀態,每3個狀態組合成一個音素,那么大概會組合成300個音素,但這段語音其實根本沒有這么多音素。如果真這么做,得到的狀態號可能根本無法組合成音素。實際上,相鄰幀的狀態應該大多數都是相同的才合理,因為每幀很短。 解決這個問題的常用方法就是使用隱馬爾可夫模型(Hidden Markov Model,HMM)。這東西聽起來好像很高深的樣子,實際上用起來很簡單: 第一步,構建一個狀態網絡。 第二步,從狀態網絡中尋找與聲音最匹配的路徑
7、。 這樣就把結果限制在預先設定的網絡中,避免了剛才說到的問題,當然也帶來一個局限,比如你設定的網絡里只包含了“今天晴天”和“今天下雨”兩個句子的狀態路徑,那么不管說些什么,識別出的結果必然是這兩個句子中的一句。語音識別的實現(7) 那如果想識別任意文本呢?把這個網絡搭得足夠大,包含任意文本的路徑就可以了。但這個網絡越大,想要達到比較好的識別準確率就越難。所以要根據實際任務的需求,合理選擇網絡大小和結構。 搭建狀態網絡,是由單詞級網絡展開成音素網絡,再展開成狀態網絡。語音識別過程其實就是在狀態網絡中搜索一條最佳路徑,語音對應這條路徑的概率最大,這稱之為“解碼”。路徑搜索的算法是一種動態規劃剪枝的
8、算法,稱之為Viterbi算法,用于尋找全局最優路徑。語音識別的實現(8) 這里所說的累積概率,由三部分構成,分別是: 觀察概率:每幀和每個狀態對應的概率 轉移概率:每個狀態轉移到自身或轉移到下個狀態的概率 語言概率:根據語言統計規律得到的概率 其中,前兩種概率從聲學模型中獲取,最后一種概率從語言模型中獲取。語言模型是使用大量的文本訓練出來的,可以利用某門語言本身的統計規律來幫助提升識別正確率。語言模型很重要,如果不使用語言模型,當狀態網絡較大時,識別出的結果基本是一團亂麻。聲學模型 聲學模型是把語音轉化為聲學表示的輸出,即找到給定的語音源于某個聲學符號的概率。對于聲學符號,最直接的表達方式是
9、詞組,但是在訓練數據量不充分的情況下,很難得到一個好的模型。詞組是由多個音素的連續發音構成,另外,音素不但有清晰的定義而且數量有限。因而,在語音識別中,通常把聲學模型轉換成了一個語音序列到發音序列(音素)的模型和一個發音序列到輸出文字序列的字典。 需要注意的是,由于人類發聲器官運動的連續性,以及某些語言中特定的拼讀習慣,會導致音素的發音受到前后音素的影響。為了對不同語境的音素加以區分,通常使用能夠考慮前后各一個音素的三音子作為建模單元。 另外,在聲學模型中,可以把三音子分解為更小的顆粒狀態,通常一個三音子對應3個狀態,但是這會引起建模參數的指數增長,常用的解決方案是使用決策樹先對這些三音子模型
10、進行聚類,然后使用聚類的結果作為分類目標。 最常用的聲學建模方式是隱馬爾科夫模型隱馬爾科夫模型(HMM)。在HMM下,狀態是隱變量,語音是觀測值,狀態之間的跳轉符合馬爾科夫假設。其中,狀態轉移概率密度多采用幾何分布建模,而擬合隱變量到觀測值的觀測概率的模型常用高斯混合模型(GMM)。傳統模型GMM-HMM的算法語音識別過程語音識別過程就是輸入一段語音信號,找到一串文字(字或詞)序列的過程,語音輸入O=o1,o2,o3,.,ot對應的標注W=w1,w2,w3,.,wn這個過程一般用概率來表示,用O表示語音信號,用W表示文字序列,則是要解決下面這個問題:由貝葉斯公式展開,可得由于P(O|W)P(W) /P(O)是對每個句子進行計算的,而對每個句子來說P(O) 是
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
- 4. 未經權益所有人同意不得將文件中的內容挪作商業或盈利用途。
- 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
- 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- GB/T 45578-2025無損檢測聲發射檢測壓電聲發射傳感器接收靈敏度譜的驗證
- GB/T 45436-2025電爐工藝及裝備技術改造規范
- 紡織企業生態設計與可持續發展考核試卷
- 電信服務在智能物流配送的優化考核試卷
- 液體分離技術在皮革工業的應用考核試卷
- 纖維制品的國內市場消費趨勢分析考核試卷
- 畜牧業食品安全管理體系與認證流程考核試卷
- 無線廣播傳輸在體育賽事中的應用考核試卷
- 氣象預報在農業種植調整中的作用考核試卷
- 稀有金屬在智能傳感器中的應用考核試卷
- GB/T 27060-2025合格評定良好實踐指南
- 企業研究方法知到智慧樹章節測試課后答案2024年秋華東理工大學
- 公司安全事故隱患內部舉報、報告獎勵制度
- 小區網球可行性方案
- 雷雨第四幕完整版
- 基坑監測階段性報告.doc
- 初始過程能力分析報告
- 第三章球墨鑄鐵ppt課件
- 天然氣管道放空時間的計算
- 紅日歌詞 粵語發音修正版
- 05標準工時及產能計算表
評論
0/150
提交評論