深度學習原理及應用

殷麗鳳 王楊

  • 出版商: 機械工業
  • 出版日期: 2025-07-21
  • 售價: $383
  • 語言: 簡體中文
  • 頁數: 299
  • 裝訂: 平裝
  • ISBN: 7111784677
  • ISBN-13: 9787111784678
  • 相關分類: 人工智慧
  • 下單後立即進貨 (約4週~6週)

相關主題

商品描述

本書共3篇,12章,內容涵蓋了深度學習的基礎理論、重要模型及其在電腦視覺和自然語言處理等領域的應用。
第1篇深入說明了深度學習的基礎理論,包括感知機的主要概念及其實現、神經網路的架構與演算法,
以及參數更新策略、權重初始化方法和正規化技巧。
第2篇著重於電腦視覺,介紹了卷積神經網路的結構及其在影像處理方面的廣泛應用,
同時探討了經典的捲積網路結構以及先進網路在物件偵測與影像分割等領域的應用。
第3篇著重於自然語言處理,涵蓋了語言模式、word2vec模式、
RNN模型及其變體、Transformer 模型以及預訓練模型在多種任務中的應用。
本書在專業性與可讀性之間實現了良好的平衡,不僅向讀者提供深度學習領域的綜合知識和實際技能,
也致力於激發讀者的創新思維與實務能力,協助讀者在快節奏發展的科技環境中掌握先機,取得更高成就。
本書既可作為高等學系深度學習課程的基礎教材,也適合深度學習愛好者自學。
無論是初學者或具有一定基礎的從業人員,都能從中獲得啟發和實用的知識。

目錄大綱

前言
第1篇深度學習基礎篇
第1章感知機
1.1感知機是什麼
1.2簡單邏輯電路
1.2.1與門
1.2.2與非門和或門
1.3感知機的實現
1.3.1簡單的實現
1.3.2導入權重和偏置
1.3.3權重和偏置的實現
1.4感知機的局限性
1.4.1異或門
1.4.2線性和非線性
1.5多層感知機
1.5.1組合閘電路配置異或閘
1.5.2異或門的實現
1.6本章小結
1.7習題
第2章經網絡
2.1從感知機到經網絡
2.1.1經網絡的結構
2.1.2回顧感知機
2.1.3激活函數簡介
2.2躍函數
2.2.1躍函數的實現
2.2.2Sigmoid函數
2.2.3ReLU函數
2.3經網路的前向傳播
2.3.1符號的意義
2.3.2各層間訊號傳遞的實現
2.3.3程式碼實現
2.4輸出層的設計
2.4.1恆等函數
2.4.2softmax函數
2.4.3輸出層的經元數量
2.5損失函數
2.5.1均方誤差
2.5.2交熵誤差
2.5.3mini-batch學習
2.5.4mini-batch版交熵誤差的實現
2.6梯度法
2.6.1梯度
2.6.2經網絡的梯度
2.7學習演算法的實現
2.7.1兩層經網路的實現
2.7.2兩層經網路解決異或問題
2.7.3基於測試數據的評
2.8誤差反向傳播
2.8.1用計算圖求解
2.8.2計算圖的反向傳播
2.8.3加法節點的反向傳播
2.8.4乘法節點的反向傳播
2.9簡單層的實現
2.9.1乘法層的實現
2.9.2加法層的實現
2.10激活函數層的實現
2.10.1ReLU層
2.10.2Sigmoid層
2.11Affine層和softmax層的實現
2.11.1Affine層
2.11.2批版本的Affine層
2.11.3softmax-with-loss層
2.12誤差反向傳播法的實現
2.12.1經網路學習的步驟
2.12.2誤差反向傳播法的經網路實現
2.12.3誤差反向傳播法的經網路訓練與推理
2.13本章小結
2.14習題
第3章經網路的學習方法
3.1參數的更新
3.1.1SGD
3.1.2SGD的缺點
3.1.3Momentum
3.1.4AdaGrad
3.1.5Adam
3.2權重的初始值
3.2.1可以將權重初始值設為0嗎?
3.2.2隱藏層的活化值的分佈
3.3Batch Normalization
3.4正規化
3.4.1過擬合
3.4.2權值衰減
3.4.3Dropout
3.5參數的驗證
3.5.1驗證數據
3.5.2參數化
3.6本章小結
3.7習題
第2篇電腦視覺篇
第4章卷積經網絡
4.1經網絡和卷積經網絡
4.2卷積存在的意義
4.3CNN的整體結構
4.4卷積層
4.4.1全連接層的問題
4.4.2卷積運算
4.4.3CNN的捲積作
4.4.4三維資料的捲積運算
4.4.5卷積層參數
4.5池化層
4.5.1池化作
4.5.2池化層徵
4.6卷積層和池化層的實現
4.6.1四維數組
4.6.2im2col
4.6.3卷積層的實現
4.6.4池化層的實現
4.7CNN案例實踐分析
4.8本章小結
4.9習題
第5章卷積網絡結構
5.1LeNet
5.1.1LeNet 簡介
5.1.2LeNet 實作案例分析
5.2AlexNet
5.2.1AlexNet 簡介
5.2.2AlexNet的改進和勢
5.2.3AlexNet實作案例分析
5.3VGG
5.3.1VGG簡介
5.3.2VGG的主要點
5.3.3VGG實踐案例分析
5.4本章小結
5.5習題
第6章卷積網絡結構進
6.1GoogLeNet
6.1.1GoogLeNet簡介
6.1.2GoogLeNet實務案例分析
6.2ResNet
6.2.1ResNet簡介
6.2.2殘差塊
6.2.3ResNet實務案例分析
6.3視覺方向的應用
6.3.1物體檢測
6.3.2影像分割
6.3.3目標追蹤
6.4本章小結
6.5習題
第3篇自然語言處理篇
第7章語言模型
7.1語言模型概述
7.2N-gram語言模型
7.2.1N-gram語言模型簡介
7.2.2N-gram語言模型的評估詞序列
7.2.3N-gram語言模型的平滑作
7.2.4N-gram語言模型的應用
7.2.5N-gram語言模型的缺點
7.3詞嵌入
7.3.1離散分佈表示
7.3.2分佈式表示
7.4經網路語言模型(NNLM)
7.4.1NNLM簡介
7.4.2NNLM的輸入
7.4.3編碼訊息轉換
7.4.4模型細節詳述
7.4.5NNLM的缺點
7.5NNLM的應用
7.5.1資料預處理和批次生成
7.5.2模型結構定義
7.5.3模型參數和參數
7.5.4模型訓練
7.6本章小結
7.7習題
第8章word2vec模型
8.1word2vec模型簡介
8.2經網路的反向傳播法
8.3word2vec模型和經網絡
8.4word2vec模型架構
8.4.1簡易CBOW架構
8.4.2CBOW架構
8.4.3Skip-gram架構
8.5化演算法
8.5.1層次化softmax
8.5.2負採樣化
8.6word2vec模型應用
8.6.1資料預處理和批次生成
8.6.2word2vec模型的結構定義
8.6.3模型參數和參數
8.6.4模型訓練
8.6.5可視化嵌入與結果展示
8.7本章小結
8.8習題
第9章循環經網路模型
9.1RNN模型
9.1.1RNN簡介
9.1.2RNN和序列數據
9.1.3RNN模型基本結構
9.1.4RNN的反向傳播
9.1.5雙向RNN
9.1.6雙向RNN思考
9.1.7深層雙向RNN
9.1.8RNN的梯度消失和梯度炸
9.1.9RNN模型應用
9.2LSTM模型
9.2.1LSTM簡介
9.2.2LSTM和RNN結構對比
9.2.3LSTM符號說明
9.2.4LSTM與RNN輸入差異思考
9.2.5LSTM的平行化
9.2.6LSTM的門控裝置
9.2.7LSTM模型應用
9.3GRU模型
9.3.1GRU簡介
9.3.2GRU模型架構詳解
9.3.3GRU模型應用
9.4本章小結
9.5習題
第10章Transformer模型
10.1Seq2Seq
10.1.1Seq2Seq的基本結構
10.1.2Seq2Seq結構的實作方式
10.2Transformer模型簡介
10.2.1Transformer的Seq2Seq架構
10.2.2Transformer的輸入
10.2.3Transformer的自註意力機制
10.2.4編碼器的結構訊息
10.2.5解碼器模組的輸入
10.2.6解碼器的結構訊息
10.3本章小結
10.4習題
第11章位置編碼
11.1位置編碼簡介
11.1.1線性歸一化位置編碼
11.1.2整數值位置編碼
11.1.3二進位位置編碼
11.1.4週期函數的位置編碼
11.1.5sin和cos交替位置編碼
11.2Transformer模型的位置編碼
11.3Transformer模型的位置編碼視覺化
11.4Transformer模型應用
11.4.1資料預處理和批次生成
11.4.2Transformer模型結構定義
11.4.3模型參數和參數
11.4.4編碼器構件
11.4.5解碼器構件
11.4.6模型訓練
11.4.7可視化嵌入與結果展示
11.5本章小結
11.6習題
第12章預訓練模型
12.1ELMo模型
12.1.1ELMo模型簡介
12.1.2ELMo模型與雙向LSTM
12.1.3雙向LSTM
12.1.4ELMo結構解析
12.2GPT模型
12.2.1GPT模型簡介
12.2.2GPT基礎架構選擇
12.2.3模型訓練
12.3BERT模型
12.3.1BERT模型簡介
12.3.2BERT模型基礎架構選擇
12.3.3BERT模型的輸入訊息
12.3.4BERT模型的輸出訊息
12.3.5BERT模型的預訓練任務
12.4本章小結
12.5習題
參考文獻