解析深度學習 : 語音識別實踐 解析深度学习:语音识别实践
俞棟, 鄧力
- 出版商: 電子工業
- 出版日期: 2016-07-01
- 定價: $474
- 售價: 8.5 折 $403
- 語言: 簡體中文
- 頁數: 290
- 裝訂: 平裝
- ISBN: 712128796X
- ISBN-13: 9787121287961
-
相關分類:
DeepLearning
立即出貨
買這商品的人也買了...
-
$620$527 -
$590$502 -
$580$452 -
$780$616 -
$360$284 -
$202深度學習:方法及應用
-
$403深度學習 : 21天實戰 Caffe
-
$580$452 -
$327大數據架構詳解:從數據獲取到深度學習
-
$301神經網絡與深度學習
-
$288深度學習導論及案例分析
-
$403深度學習 : Caffe 之經典模型詳解與實戰
-
$590$502 -
$500$395 -
$228深度學習:原理與應用實踐
-
$360$281 -
$580$458 -
$500NLP 漢語自然語言處理原理與實踐
-
$474$450 -
$403Tensorflow:實戰Google深度學習框架
-
$590$460 -
$653$614 -
$958深度學習
-
$580$458 -
$454TensorFlow 深度學習應用實踐
相關主題
商品描述
<內容介紹>
《解析深度學習:語音識別實踐》是首部介紹語音識別中深度學習技術細節的專著。全書首先概要介紹了傳統語音識別理論和經典的深度神經網絡核心算法。接著全面而深入地介紹了深度學習在語音識別中的應用,包括“深度神經網絡-隱馬爾可夫混合模型”的訓練和優化,特徵表示學習、模型融合、自適應,以及以循環神經網絡為代表的若乾先進深度學習技術。
《解析深度學習:語音識別實踐》適合有一定機器學習或語音識別基礎的學生、研究者或從業者閱讀,所有的算法及技術細節都提供了詳盡的參考文獻,給出了深度學習在語音識別中應用的全景。
<目錄>
譯者序 iv
序 vii
前言 ix
術語縮寫 xxii
符號 xxvii
第 1 章 簡介 1
1.1 自動語音識別:更好的溝通之橋 . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.1 人類之間的交流 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.2 人機交流 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 語音識別系統的基本結構 . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 全書結構 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.1 第一部分:傳統聲學模型 . . . . . . . . . . . . . . . . . . . . . . 6
1.3.2 第二部分:深度神經網絡 . . . . . . . . . . . . . . . . . . . . . . 6
1.3.3 第三部分:語音識別中的 DNN-HMM 混合系統 . . . . . . . . . . 7
1.3.4 第四部分:深度神經網絡中的表徵學習 . . . . . . . . . . . . . . 7
1.3.5 第五部分:高級的深度模型 . . . . . . . . . . . . . . . . . . . . . 7
第一部分 傳統聲學模型 9
第 2 章 混合高斯模型 11
2.1 隨機變量 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2 高斯分佈和混合高斯隨機變量 . . . . . . . . . . . . . . . . . . . . . . . . 12
2.3 參數估計 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.4 採用混合高斯分佈對語音特徵建模 . . . . . . . . . . . . . . . . . . . . . 16
第 3 章 隱馬爾可夫模型及其變體 19
3.1 介紹 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.2 馬爾可夫鏈 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.3 序列與模型 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.3.1 隱馬爾可夫模型的性質 . . . . . . . . . . . . . . . . . . . . . . . . 23
3.3.2 隱馬爾可夫模型的模擬 . . . . . . . . . . . . . . . . . . . . . . . . 24
3.3.3 隱馬爾可夫模型似然度的計算 . . . . . . . . . . . . . . . . . . . . 24
3.3.4 計算似然度的高效算法 . . . . . . . . . . . . . . . . . . . . . . . . 26
3.3.5 前向與後向遞歸式的證明 . . . . . . . . . . . . . . . . . . . . . . 27
3.4 期望最大化算法及其在學習 HMM 參數中的應用 . . . . . . . . . . . . . 28
3.4.1 期望最大化算法介紹 . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.4.2 使用 EM 算法來學習 HMM 參數——Baum-Welch 算法 . . . . . . 30
3.5 用於解碼 HMM 狀態序列的維特比算法 . . . . . . . . . . . . . . . . . . . 34
3.5.1 動態規劃和維特比算法 . . . . . . . . . . . . . . . . . . . . . . . . 34
3.5.2 用於解碼 HMM 狀態的動態規劃算法 . . . . . . . . . . . . . . . . 35
3.6 隱馬爾可夫模型和生成語音識別模型的變體 . . . . . . . . . . . . . . . . 37
3.6.1 用於語音識別的 GMM-HMM 模型 . . . . . . . . . . . . . . . . . 38
3.6.2 基於軌跡和隱藏動態模型的語音建模和識別 . . . . . . . . . . . . 39
3.6.3 使用生成模型 HMM 及其變體解決語音識別問題 . . . . . . . . . 40
第二部分 深度神經網絡 43
第 4 章 深度神經網絡 45
4.1 深度神經網絡框架 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.2 使用誤差反向傳播來進行參數訓練 . . . . . . . . . . . . . . . . . . . . . 48
4.2.1 訓練準則 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.2.2 訓練算法 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.3 實際應用 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.3.1 數據預處理 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
4.3.2 模型初始化 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
4.3.3 權重衰減 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
4.3.4 丟棄法 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.3.5 批量塊大小的選擇 . . . . . . . . . . . . . . . . . . . . . . . . . . 58
4.3.6 取樣隨機化 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.3.7 慣性係數 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
4.3.8 學習率和停止準則 . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.3.9 網絡結構 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
4.3.10 可複現性與可重啟性 . . . . . . . . . . . . . . . . . . . . . . . . . 62
第 5 章 高級模型初始化技術 65
5.1 受限玻爾茲曼機 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
5.1.1 受限玻爾茲曼機的屬性 . . . . . . . . . . . . . . . . . . . . . . . . 67
5.1.2 受限玻爾茲曼機參數學習 . . . . . . . . . . . . . . . . . . . . . . 70
5.2 深度置信網絡預訓練 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
5.3 降噪自動編碼器預訓練 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
5.4 鑑別性預訓練 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
5.5 混合預訓練 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
5.6 採用丟棄法的預訓練 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
第三部分 語音識別中的深度神經網絡–隱馬爾可夫混合模型 81
第 6 章 深度神經網絡–隱馬爾可夫模型混合系統 83
6.1 DNN-HMM 混合系統 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
6.1.1 結構 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
6.1.2 用 CD-DNN-HMM 解碼 . . . . . . . . . . . . . . . . . . . . . . . . 85
6.1.3 CD-DNN-HMM 訓練過程 . . . . . . . . . . . . . . . . . . . . . . . 86
6.1.4 上下文窗口的影響 . . . . . . . . . . . . . . . . . . . . . . . . . . 88
6.2 CD-DNN-HMM 的關鍵模塊及分析 . . . . . . . . . . . . . . . . . . . . . 90
6.2.1 進行比較和分析的數據集和實驗 . . . . . . . . . . . . . . . . . . 90
6.2.2 對單音素或者三音素的狀態進行建模 . . . . . . . . . . . . . . . . 92
6.2.3 越深越好 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
6.2.4 利用相鄰的語音幀 . . . . . . . . . . . . . . . . . . . . . . . . . . 94
6.2.5 預訓練 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
6.2.6 訓練數據的標註質量的影響 . . . . . . . . . . . . . . . . . . . . . 95
6.2.7 調整轉移概率 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
6.3 基於 KL 距離的隱馬爾可夫模型 . . . . . . . . . . . . . . . . . . . . . . . 96
第 7 章 訓練和解碼的加速 99
7.1 訓練加速 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
7.1.1 使用多 GPU 流水線反向傳播 . . . . . . . . . . . . . . . . . . . . 100
7.1.2 異步隨機梯度下降 . . . . . . . . . . . . . . . . . . . . . . . . . . 103
7.1.3 增廣拉格朗日算法及乘子方向交替算法 . . . . . . . . . . . . . . 106
7.1.4 減小模型規模 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
7.1.5 其他方法 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
7.2 加速解碼 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
7.2.1 並行計算 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
7.2.2 稀疏網絡 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
7.2.3 低秩近似 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
7.2.4 用大尺寸 DNN 訓練小尺寸 DNN . . . . . . . . . . . . . . . . . . 114
7.2.5 多幀 DNN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
第 8 章 深度神經網絡序列鑑別性訓練 117
8.1 序列鑑別性訓練準則 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
8.1.1 最大相互信息 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
8.1.2 增強型 MMI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
8.1.3 最小音素錯誤/狀態級最小貝葉斯風險 . . . . . . . . . . . . . . . 120
8.1.4 統一的公式 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
8.2 具體實現中的考量 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
8.2.1 詞圖產生 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
8.2.2 詞圖補償 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
8.2.3 幀平滑 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
8.2.4 學習率調整 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
8.2.5 訓練準則選擇 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
8.2.6 其他考量 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
8.3 噪聲對比估計 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
8.3.1 將概率密度估計問題轉換為二分類設計問題 . . . . . . . . . . . . 127
8.3.2 拓展到未歸一化的模型 . . . . . . . . . . . . . . . . . . . . . . . . 129
8.3.3 在深度學習網絡訓練中應用噪聲對比估計算法 . . . . . . . . . . 130
第四部分 深度神經網絡中的特徵表示學習 133
第 9 章 深度神經網絡中的特徵表示學習 135
9.1 特徵和分類器的聯合學習 . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
9.2 特徵層級 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
9.3 使用隨意輸入特徵的靈活性 . . . . . . . . . . . . . . . . . . . . . . . . . 140
9.4 特徵的魯棒性 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
9.4.1 對說話人變化的魯棒性 . . . . . . . . . . . . . . . . . . . . . . . . 141
9.4.2 對環境變化的魯棒性 . . . . . . . . . . . . . . . . . . . . . . . . . 142
9.5 對環境的魯棒性 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
9.5.1 對噪聲的魯棒性 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
9.5.2 對語速變化的魯棒性 . . . . . . . . . . . . . . . . . . . . . . . . . 147
9.6 缺乏嚴重信號失真情況下的推廣能力 . . . . . . . . . . . . . . . . . . . . 148
第 10 章 深度神經網絡和混合高斯模型的融合 151
10.1 在 GMM-HMM 系統中使用由 DNN 衍生的特徵 . . . . . . . . . . . . . . 151
10.1.1 使用 Tandem 和瓶頸特徵的 GMM-HMM 模型 . . . . . . . . . . . 151
10.1.2 DNN-HMM 混合系統與採用深度特徵的 GMM-HMM 系統的比較 154
10.2 識別結果融合技術 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
10.2.1 識別錯誤票選降低技術( ROVER) . . . . . . . . . . . . . . . . . 157
10.2.2 分段條件隨機場( SCARF) . . . . . . . . . . . . . . . . . . . . . 159
10.2.3 最小貝葉斯風險詞圖融合 . . . . . . . . . . . . . . . . . . . . . . 160
10.3 幀級別的聲學分數融合 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
10.4 多流語音識別 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
第 11 章 深度神經網絡的自適應技術 165
11.1 深度神經網絡中的自適應問題 . . . . . . . . . . . . . . . . . . . . . . . . 165
11.2 線性變換 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
11.2.1 線性輸入網絡 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
11.2.2 線性輸出網絡 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
11.3 線性隱層網絡 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
11.4 保守訓練 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
11.4.1 L 2 正則項 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
11.4.2 KL 距離正則項 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
11.4.3 減少每個說話人的模型開銷 . . . . . . . . . . . . . . . . . . . . . 173
11.5 子空間方法 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175
11.5.1 通過主成分分析構建子空間 . . . . . . . . . . . . . . . . . . . . . 175
11.5.2 噪聲感知、說話人感知及設備感知訓練 . . . . . . . . . . . . . . 176
11.5.3 張量 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180
11.6 DNN 說話人自適應的效果 . . . . . . . . . . . . . . . . . . . . . . . . . . 181
11.6.1 基於 KL 距離的正則化方法 . . . . . . . . . . . . . . . . . . . . . 181
11.6.2 說話人感知訓練 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
第五部分 先進的深度學習模型 185
第 12 章 深度神經網絡中的表徵共享和遷移 187
12.1 多任務和遷移學習 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187
12.1.1 多任務學習 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187
12.1.2 遷移學習 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
12.2 多語言和跨語言語音識別 . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
12.2.1 基於 Tandem 或瓶頸特徵的跨語言語音識別 . . . . . . . . . . . . 190
12.2.2 共享隱層的多語言深度神經網絡 . . . . . . . . . . . . . . . . . . 191
12.2.3 跨語言模型遷移 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194
12.3 語音識別中深度神經網絡的多目標學習 . . . . . . . . . . . . . . . . . . . 197
12.3.1 使用多任務學習的魯棒語音識別 . . . . . . . . . . . . . . . . . . 197
12.3.2 使用多任務學習改善音素識別 . . . . . . . . . . . . . . . . . . . . 198
12.3.3 同時識別音素和字素( graphemes) . . . . . . . . . . . . . . . . . 199
12.4 使用視聽信息的魯棒語音識別 . . . . . . . . . . . . . . . . . . . . . . . . 199
第 13 章 循環神經網絡及相關模型 201
13.1 介紹 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201
13.2 基本循環神經網絡中的狀態-空間公式 . . . . . . . . . . . . . . . . . . . . 203
13.3 沿時反向傳播學習算法 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204
13.3.1 最小化目標函數 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205
13.3.2 誤差項的遞歸計算 . . . . . . . . . . . . . . . . . . . . . . . . . . 205
13.3.3 循環神經網絡權重的更新 . . . . . . . . . . . . . . . . . . . . . . 206
13.4 一種用於學習循環神經網絡的原始對偶技術 . . . . . . . . . . . . . . . . 208
13.4.1 循環神經網絡學習的難點 . . . . . . . . . . . . . . . . . . . . . . 208
13.4.2 迴聲狀態( Echo-State)性質及其充分條件 . . . . . . . . . . . . . 208
13.4.3 將循環神經網絡的學習轉化為帶約束的優化問題 . . . . . . . . . 209
13.4.4 一種用於學習 RNN 的原始對偶方法 . . . . . . . . . . . . . . . . 210
13.5 結合長短時記憶單元( LSTM)的循環神經網絡 . . . . . . . . . . . . . . 212
13.5.1 動機與應用 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212
13.5.2 長短時記憶單元的神經元架構 . . . . . . . . . . . . . . . . . . . . 213
13.5.3 LSTM-RNN 的訓練 . . . . . . . . . . . . . . . . . . . . . . . . . . 214
13.6 循環神經網絡的對比分析 . . . . . . . . . . . . . . . . . . . . . . . . . . . 214
13.6.1 信息流方向的對比:自上而下還是自下而上 . . . . . . . . . . . . 215
13.6.2 信息表徵的對比:集中式還是分佈式 . . . . . . . . . . . . . . . . 217
13.6.3 解釋能力的對比:隱含層推斷還是端到端學習 . . . . . . . . . . 218
13.6.4 參數化方式的對比:吝嗇參數集合還是大規模參數矩陣 . . . . . 218
13.6.5 模型學習方法的對比:變分推理還是梯度下降 . . . . . . . . . . 219
13.6.6 識別正確率的比較 . . . . . . . . . . . . . . . . . . . . . . . . . . 220
13.7 討論 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221
第 14 章 計算型網絡 223
14.1 計算型網絡 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223
14.2 前向計算 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224
14.3 模型訓練 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
14.4 典型的計算節點 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231
14.4.1 無操作數的計算節點 . . . . . . . . . . . . . . . . . . . . . . . . . 232
14.4.2 含一個操作數的計算節點 . . . . . . . . . . . . . . . . . . . . . . 232
14.4.3 含兩個操作數的計算節點 . . . . . . . . . . . . . . . . . . . . . . 237
14.4.4 用來計算統計量的計算節點類型 . . . . . . . . . . . . . . . . . . 244
14.5 捲積神經網絡 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245
14.6 循環連接 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 248
14.6.1 只在循環中一個接一個地處理樣本 . . . . . . . . . . . . . . . . . 249
14.6.2 同時處理多個句子 . . . . . . . . . . . . . . . . . . . . . . . . . . 251
14.6.3 創建任意的循環神經網絡 . . . . . . . . . . . . . . . . . . . . . . 252
第 15 章 總結及未來研究方向 255
15.1 路線圖 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255
15.1.1 語音識別中的深度神經網絡啟蒙 . . . . . . . . . . . . . . . . . . 255
15.1.2 深度神經網絡訓練和解碼加速 . . . . . . . . . . . . . . . . . . . . 258
15.1.3 序列鑑別性訓練 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 258
15.1.4 特徵處理 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 259
15.1.5 自適應 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 260
15.1.6 多任務和遷移學習 . . . . . . . . . . . . . . . . . . . . . . . . . . 261
15.1.7 捲積神經網絡 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 261
15.1.8 循環神經網絡和長短時記憶神經網絡 . . . . . . . . . . . . . . . . 261
15.1.9 其他深度模型 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 262
15.2 技術前沿和未來方向 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 262
15.2.1 技術前沿簡析 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 262
15.2.2 未來方向 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 263
參考文獻 267