PyTorch 深度學習指南:程式設計基礎 卷I Deep Learning with PyTorch Step-by-Step: A Beginner's Guide: Volume I: Fundamentals

Daniel Voigt Godoy 譯 趙春江

買這商品的人也買了...

相關主題

商品描述

「PyTorch深度學習指南」叢書循序漸進地詳細講解了與深度學習相關的重要概念、演算法和模型,
並著重展示了PyTorch是如何實現這些演算法和模型的。
其共分三冊:程式設計基礎、電腦視覺、序列與自然語言處理。
本書為此套叢書的第一卷:程式設計基礎。
本書主要介紹了梯度下降和PyTorch的Autograd;訓練循環、資料載入器、小批量和優化器;
二元分類器、交叉熵損失和不平衡資料集;決策邊界、評估指標和資料可分離性等內容。
本書適用於對深度學習感興趣,並希望使用PyTorch實現深度學習的Python程式設計師閱讀學習。

目錄大綱

前言
致謝
關於作者
譯者序
常見問題
為什麼選擇PyTorch?
為什麼選擇這套書?
誰該讀這套書?
我需要知道什麼?
如何閱讀這套書?
下一步是什麼?
設定指南
官方資料庫
環境
谷歌Colab
Binder
本地安裝
繼續
第0章 可視化梯度下降
劇透
Jupyter Notebook
導入
可視化梯度下降
模型
數據生成
合成資料生成
訓練-驗證-測試拆分
第0步-隨機初始化
第1步-計算模型的預測
第2步-計算損失
損失面
橫斷面
第3步-計算梯度
可視化梯度
反向傳播
第4步-更新參數
學習率
第5步-循環往復
梯度下降的路徑
回顧
第1章 一個簡單的回歸問題
劇透
Jupyter Notebook
導入
一個簡單的迴歸問題
數據生成
合成資料生成
梯度下降
第0步-隨機初始化
第1步-計算模型的預測
第2步-計算損失
第3步-計算梯度
第4步-更新參數
第5步-循環往復
Numpy中的線性迴歸
PyTorch
張量
載入資料、設備和CUDA
建立參數
Autograd
backward
grad
zero_
更新參數
no_grad
動態計算圖
優化器
step/zero_grad
損失
模型
參數
state_dict
 裝置
前向傳遞
訓練
嵌套模型
序列(Sequential)模型

歸納總結
資料準備
模型配置
模型訓練
回顧
第2章 重新思考訓練循環
劇透
Jupyter Notebook
導入
重新思考訓練循環
訓練步驟
Dataset
TensorDataset
DataLoader
小批量內循環
隨機拆分
評估
繪製損失
TensorBoard
在Notebook中運行
單獨運作(本機安裝)
單獨運行(Binder)
SummaryWriter
add_graph
add_scalars
保存與載入模型
模型狀態
保存
恢復訓練
部署/做出預測
設定模型的模式
歸納總結
回顧
第2.1章 追求優雅
劇透
Jupyter Notebook
導入
追求優雅

構造方法
訓練方法
儲存與載入方法
視覺化方法
完整程式碼
典型的管道
模型訓練
做出預測
檢查點
恢復訓練
歸納總結
回顧
第3章 一個簡單的分類問題
劇透
Jupyter Notebook
導入
一個簡單的分類問題
數據生成
資料準備
模型
logit
機率
比值比(Odds Ratio)
對數比值比
從logit到機率
Sigmoid
邏輯斯蒂回歸
損失
BCELoss
BCEWithLogitsLoss
不平衡資料集
模型配置
模型訓練
決策邊界
分類閾值
混淆矩陣
指標
權衡與曲線
歸納總結
回顧