PyTorch 深度學習指南:序列與自然語言處理 卷III Deep Learning with PyTorch Step-by-Step: A Beginner's Guide: Volume III: Sequences & NLP
Daniel Voigt Godoy 譯者 趙春江
- 出版商: 機械工業
- 出版日期: 2024-03-01
- 定價: $834
- 售價: 8.5 折 $709
- 語言: 簡體中文
- 頁數: 324
- 裝訂: 平裝
- ISBN: 7111744594
- ISBN-13: 9787111744597
-
相關分類:
DeepLearning、Text-mining
- 此書翻譯自: Deep Learning with PyTorch Step-by-Step: A Beginner's Guide: Volume III: Sequences & NLP
-
PyTorch深度學習指南:程式設計基礎 卷I PyTorch深度學習指南 卷2 電腦視覺 PyTorch深度學習指南:序列與自然語言處理 卷III
立即出貨
買這商品的人也買了...
-
$599$473 -
$587MATLAB 2020 信號處理從入門到精通
-
$599$473 -
$534$507 -
$2,280$2,166 -
$419$398 -
$880$695 -
$828$787 -
$254無線傳感器網絡案例集成開發教程(ZigBee版)(慕課版)
-
$806機器學習在算法交易中的應用(第2版)
-
$454從零開始大模型開發與微調:基於 PyTorch 與 ChatGLM
-
$774$735 -
$539$512 -
$479$455 -
$594$564 -
$654$621 -
$474$450 -
$2,050$1,948 -
$560$392 -
$680$510 -
$1,200$948 -
$800$632 -
$474$450 -
$650$514 -
$356特徵工程訓練營
相關主題
商品描述
本套叢書循序漸進地詳細講解了與深度學習相關的重要觀念、
演算法和模型,並著重展示了PyTorch是如何實現這些演算法和模型的。
其共分為三冊:程式設計基礎、電腦視覺、序列與自然語言處理。
本書為此套叢書的第三卷:序列與自然語言處理。
主要介紹了循環神經網路(RNN、GRU和LSTM)和一維卷積;Seq2Seq模型、注意力、自註意力、掩碼、和位置編碼;
Transformer、層歸一化、和視覺Transformer(ViT);BERT、GPT-2、單字嵌入、和HuggingFace庫等內容。
目錄大綱
前言
致謝
關於作者
譯者序
常見問題
為什麼選擇PyTorch?
為什麼選擇這套書?
誰該讀這套書?
我需要知道什麼?
如何閱讀這套書?
下一步是什麼?
設定指南
官方資料庫
環境
GoogleColab
Binder
本地安裝
繼續
第8章序列
劇透
Jupyter Notebook
導入
序列
資料產生
循環神經網路(RNN)
RNN單元
RNN層
形狀
堆疊RNN
雙向RNN
正方形模型
視覺化模型
我們能做得更好嗎?
門控循環單元(GRU)
GRU單元
GRU層
正方形模型Ⅱ-速成
模型配置與訓練
視覺化模型
我們能做得更好嗎?
長短期記憶(LSTM)
LSTM單元
LSTM層
正方形模型Ⅲ——巫師
模型配置與訓練
視覺化隱藏狀態
可變長度序列
填充
打包
解包(至填充)
打包(從填充)
可變長度資料集
資料準備
正方形模型Ⅳ ——打包
模型配置與訓練
一維卷積
形狀
多特徵或通道
膨脹
資料準備
模型配置與訓練
視覺化模型
歸納總結
固定長度資料集
可變長度資料集
選擇適當的模型
模型配置與訓練
回顧
第9章(上):序列到序列
劇透
Jupyter Notebook
導入
序列到序列
資料產生
編碼器-解碼器架構
編碼器
解碼器
編碼器+解碼器
資料準備
模型配置和訓練
視覺化預測
我們能做得更好嗎?
注意力
“值”
“鍵”和“查詢”
計算上下文向量
評分方法
注意力分數
縮放點積
注意力機制
源掩碼
解碼器
編碼器+解碼器+注意力機制
模型配置和訓練
可視化預測
可視化注意力
多頭注意力
第9章(下):序列到序列
劇透
自註意力
編碼器
交叉注意力
解碼器
編碼器+解碼器+自註意力機制
模型配置與訓練
視覺化預測
不再有序
位置編碼(PE)
編碼器+解碼器+位置編碼
模型配置與訓練
視覺化預測
視覺化注意力
歸納總結
資料準備
模型組裝
編碼器+解碼器+位置編碼
自註意力的「層」
注意力頭
模型配置與訓練
回顧
第10章轉換和轉出
劇透
Jupyter Notebook
導入
轉換與轉出
狹義注意力
分塊
多頭注意力
堆疊編碼器和解碼器
包裹「子層」
Transformer編碼器
Transformer解碼器
層歸一化
批量與層
我們的Seq2Seq問題
投影或嵌入
Transformer
資料準備
模型配置和訓練
視覺化預測
PyTorch的Transformer
模型配置和訓練
視覺化預測
視覺Transformer
資料產生與準備 修補程式
特殊
分類器詞元
模型
模型配置與訓練
歸納總結
資料準備
模型組裝
模型配置與訓練
回顧
第11章Down the Yellow Brick Rabbit Hole
劇透
Jupyter Notebook
附加設定
導入
「掉進黃磚兔子洞(Down the Yellow Brick Rabbit Hole)」
建構資料集
句子詞元化
HuggingFace的資料集
載入資料集 單
字詞元化
詞彙表
HuggingFace的詞元化器
單字嵌入前
獨熱(One-Hot)編碼(OHE)
字詞袋(BoW)
語言模型
N元(N-gram)
連續詞袋(CBoW)
單字嵌入
Word2Vec
什麼是嵌入?
預訓練的Word2Vec
全域向量(GloVe)
使用單字嵌入
模型Ⅰ——GloVE+分類器
模型Ⅱ——GloVe+Transformer
上下文單字嵌入
ELMo
BERT
文件嵌入
模型Ⅲ——預處理嵌入
BERT
詞元化
輸入嵌入
預訓練任務
輸出
模型Ⅳ—使用BERT進行分類
使用HuggingFace進行微調
序列分類(或回歸)
詞元化資料集
訓練器
預測
管道
更多管道
GPT-2
歸納總結
資料準備
模型配置和訓練
生成文本
回顧
謝謝您!