Transformer原理解析及中文項目實踐(微課視頻版)
沈誌龍
- 出版商: 清華大學
- 出版日期: 2025-08-01
- 定價: $414
- 售價: 7.5 折 $311
- 語言: 簡體中文
- 頁數: 233
- ISBN: 7302696322
- ISBN-13: 9787302696322
-
相關分類:
DeepLearning
立即出貨 (庫存 < 3)
買這商品的人也買了...
-
用 Python 實作強化學習|使用 TensorFlow 與 OpenAI Gym (Hands-On Reinforcement Learning with Python)$520$442 -
最新圖解馬達入門$300$255 -
詳解深度學習 基於 TensorFlow 和 Keras 學習 RNN$474$450 -
遷移學習 -- TRANSFER LEARNING (楊強教授新作)$834$792 -
深度學習的 16 堂課:CNN + RNN + GAN + DQN + DRL, 看得懂、學得會、做得出! (Deep Learning Illustrated: A Visual, Interactive Guide to Artificial Intelligence)$620$527 -
第一次用 Azure 雲端服務就上手$620$489 -
$177MicroPython 開發與實戰 -
深入理解 Transformer 自然語言處理$594$564 -
科技巨頭的演算法大揭祕:資料科學家必讀的資料科學與機器學習實戰筆記(iThome鐵人賽系列書)【軟精裝】$680$530 -
MediaPipe 機器學習跨平臺框架實戰$654$621 -
PyTorch 語音識別實戰$534$507 -
內行人才知道的機器學習系統設計面試指南 (Machine Learning System Design Interview)$680$510 -
內行人才知道的系統設計面試指南 第二輯 (System Design Interview – An Insider's Guide: Volume 2)$820$647 -
語音與音樂信號處理輕鬆入門 (基於 Python 與 PyTorch)$414$393 -
Microsoft Azure AI Services 與 Azure OpenAI 從入門到人工智慧程式開發 -- 使用 Python (含MCF AI-900國際認證)$560$442 -
大模型算法 (強化學習微調與對齊)$654$621 -
AI 大模型創新案例開發實踐 — 基於訊飛星火大模型項目開發 30例$594$564 -
矽光子與共同封裝光電產業科技實務$500$475 -
ROS2 機器人操作系統與 Gazebo 機器人仿真 (微課視頻版)$534$507 -
$564AI Agent 應用開發:構建多智能體協同系統 -
LLM 應用開發 - 業界最實用 30個應用現場直擊$920$726 -
擴散模型 — 核心原理與強化學習優化$479$455 -
內行人才知道的生成式 AI 系統設計面試指南 (Generative AI System Design Interview)$750$592 -
LLMOps 打造穩定運行的大型語言模型系統 (LLMOps: Managing Large Language Models in Production)$620$489 -
文本機器學習$954$906
商品描述
"本書深入淺出地介紹了深度學習中的序列模型及其發展歷程,重點講解了Transformer架構及其變體的原理與實戰應用。全書共5章,旨在幫助讀者從理論基礎到實戰應用,全面掌握Transformer技術。 第1章詳細介紹RNN和LSTM的原理、代碼實戰及存在的問題與挑戰。第2章全面剖析了Transformer的總體架構、核心思想及各組成部分的實現方法。第3章從自定義代碼出發,詳細地講解了詞嵌入、多頭註意力層、前饋網絡層、編碼器層和解碼器層的構建方法,以及如何訓練Transformer模型。第4章介紹Transformer變體與進階部分。第5章介紹利用Hugging Face實踐Transformer,首先介紹了Hugging Face社區和Transformers庫,然後通過實際應用案例,如文本分類、情感分類、命名實體識別等,展示了如何使用Transformers庫進行項目開發。最後,講解了模型微調的各種方法,以及Transformer的影響和未來展望。 本書適合對深度學習、序列模型和Transformer感興趣的讀者,無論是初學者還是有一定基礎的開發者都能從中獲得豐富的理論知識和實踐經驗。同時,本書也可作為高等院校和培訓機構相關專業的教學參考書。 "
作者簡介
沈誌龍,統計學碩士、AI算法專家,擁有數學和統計學背景,對自然語言處理、機器學習、深度學習等領域具有深厚的理論知識和實踐經驗。在數據分析和挖掘領域耕耘多年,對數據分析、機器學習、深度學習和知識圖譜等方向有深入的研究和探索。在文本分類、命名實體識別、文本生成等自然語言處理任務上具有豐富的實戰經驗,對於Transformer技術應該具備的核心專業能力有深入的理解和掌握。
目錄大綱
目錄
教學課件(PPT)
本書源碼
第1章引言(83min)
1.1深度學習與序列模型的進化
1.1.1RNN原理
1.1.2RNN代碼實踐
1.1.3RNN的問題與挑戰
1.1.4LSTM原理
1.1.5LSTM代碼實踐
1.1.6LSTM的問題與挑戰
1.2Transformer的誕生背景
1.2.1Seq2Seq模型
1.2.2Seq2Seq代碼實踐
1.2.3註意力機制的崛起
1.2.4 註意力機制代碼解讀
1.2.5論文“Attention is All You Need”簡介
第2章Transformer架構解析(87min)
2.1Transformer總覽
2.1.1Transformer的核心思想
2.1.2Transformer的總體架構
2.2Transformer的實現
2.2.1自註意力機制的原理和實現
2.2.2多頭註意力的原理和實現
2.2.3位置編碼的作用和實現
2.2.4前饋網絡層
2.2.5殘差連接和層歸一化
2.2.6解碼器的結構和功能
第3章訓練Transformer
3.1自定義Transformer代碼
3.1.1詞嵌入和位置編碼
3.1.2多頭註意力層
3.1.3前饋網絡層
3.1.4編碼器層和解碼器層
3.1.5構建Transformer模型
3.1.6訓練Transformer模型
3.2實踐訓練
3.2.1數據準備
3.2.2模型定義及訓練
3.2.3模型預測
第4章Transformer變體與進階(79min)
4.1BERT
4.1.1BERT架構與原理
4.1.2BERT訓練過程解析
4.2GPT系列
4.2.1從GPT到GPT4o
4.2.2GPT訓練過程解析
4.3其他變體
4.3.1ALBERT
4.3.2RoBERTa
4.3.3T5
4.3.4知識蒸餾原理及實踐
第5章利用Hugging Face實踐Transformer
5.1Hugging Face簡介
5.1.1社區與資源介紹
5.1.2Transformers庫概覽
5.2快速開始
5.2.1Transformers庫
5.2.2Datasets加載數據集
5.2.3Tokenizer文本處理
5.2.4預訓練模型的加載
5.2.5Evaluate評估
5.2.6Trainer訓練
5.3實際應用案例
5.3.1文本分類
5.3.2情感分類
5.3.3命名實體識別
5.3.4文本相似度
5.3.5機器閱讀理解
5.3.6文本摘要
5.3.7生成式對話機器人
5.4模型高效微調
5.4.1微調原理介紹
5.4.2Freeze微調原理及實踐
5.4.3PromptTuning微調原理及實踐
5.4.4Prefix Tuning微調原理及實踐
5.4.5PTuning微調原理及實踐
5.4.6LoRA微調原理及實踐
5.4.7AdaLoRA微調原理及實踐
5.4.8QLoRA微調原理及實踐
5.5Transformer的影響
5.6未來展望







