AI Agent 智能體開發

  • 出版商: 清華大學
  • 出版日期: 2026-04-01
  • 定價: $539
  • 售價: $538
  • 語言: 簡體中文
  • ISBN: 7302712662
  • ISBN-13: 9787302712664
  • 相關分類: AI Coding
  • 下單後立即進貨 (約4週~6週)

  • AI Agent 智能體開發-preview-1
  • AI Agent 智能體開發-preview-2
  • AI Agent 智能體開發-preview-3
AI Agent 智能體開發-preview-1

相關主題

商品描述

《AI Agent 智能體開發(從入門到精通)》是一本面向零基礎與低代碼愛好者的實戰指南,旨在幫助讀者以無代碼/低代碼方式快速掌握AI智能體開發的核心技能。全書從智能體的基本概念、大語言模型(LLM)的工作原理出發,結合Qwen、DeepSeek等主流模型,系統講解如何通過Coze、Dify.ai、騰訊元器等平臺構建能感知、思考、行動的智能體程序。書中通過“詩人”“代碼解釋器”“熱點追蹤器”等案例,手把手引導讀者設計提示詞、配置模型、集成工具與知識庫,並深入探討多智能體協作(MAS)、模型上下文協議(MCP)等前沿技術。此外,還涵蓋智能體的評估優化、部署集成以及代碼進階路徑,幫助讀者從基礎開發者成長為能應對復雜場景的實踐者。無論你是想打造個人效率工具,還是探索企業級自動化流程,本書都將為你提供一套可落地的解決方案,開啟屬於你的AI智能體時代。

作者簡介

陳宇,男,1976年出生,高級工程師,黑龍江郵政易通信息網絡有限責任公司技術總監,具有多年IT工作經驗和大模型應用經驗。阿裏雲最有價值專家(MVP),多次在天池大賽上獲獎(都是獨自參賽),包括:第二屆阿裏巴巴大數據智能雲上編程大賽亞軍,印象鹽城·數創未來大數據競賽亞軍,第二屆阿裏雲安全算法挑戰賽季軍等。

目錄大綱

                                目  錄

 

         第 1 章 你好,AI 智能體

1.1章節導語 001

1.2AI 簡介 001

1.2.1AI 簡史:從夢想走向現實 002

1.2.2AI 應用:無處不在的智能助手 002

1.3LLM:智能體的“引擎” 003

1.3.1LLM 的工作方式 003

1.3.2LLM 的能力邊界:既是天才,也有局限 004

1.4AI 智能體 004

1.4.1AI 智能體定義 005

1.4.2智能體和聊天機器人 006

1.4.3AI 智能體架構概覽 006

1.5AI 智能體的應用場景:從個人助理到自動化工作流 007

1.6從無代碼 / 低代碼起步的原因 008

1.7本章小結 009

  第 2 章 智能體的“指揮棒”:提示詞工程入門

2.1章節導語 010

2.2提示詞:與智能體高效溝通的藝術 010

2.3構建優質提示詞的核心要素 011

2.3.1角色:讓智能體“入戲” 011

2.3.2目標 / 任務:明確“做什麼” 012

2.3.3背景信息:提供必要的“已知條件” 012

2.3.4步驟 / 約束:指導“如何做”與“不能做什麼” 013

2.3.5輸出格式:規定結果“長什麼樣” 013

2.4面向 AI 智能體構建提示詞的基本原則與技巧 014

2.4.1提示詞的清晰性、簡潔性、完整性 014

2.4.2提供充足且相關的上下文 014

2.4.3將復雜任務分解 015

2.4.4引導思考過程 015

2.4.5分隔符在提示詞中的作用與實踐解析 016

2.5進階提示詞技巧 017

2.5.1少樣本學習:提供示例的力量 017

2.5.2思維鏈提示法:引導 AI“思考過程” 018

2.6結構化提示詞:模板的力量 019

2.7編寫提示詞的常見誤區與規避 020

2.8疊代優化:提示詞是一個持續改進的過程 021

2.9針對 AI 智能體的提示詞特殊考量 022

2.10實戰練習 023

2.11本章小結 024

  第 3 章 智能體的大腦:巡禮頂級 LLM

3.1章節導語 025

3.2LLM 簡史:從圖靈測試到生成式 AI 的爆發 025

3.3全球頂尖 LLM 速覽 027

3.3.1OpenAI 的 GPT 系列模型 028

3.3.2Google 的 Gemini 系列模型 028

3.3.3Anthropic 的 Claude 系列模型 029

3.3.4xAI 的 Grok 系列模型 029

3.3.5Meta 的 Llama 系列模型 029

3.3.6深度求索的 DeepSeek 系列模型 030

3.3.7阿裏雲的 Qwen 系列模型 031

3.3.8其他重要模型 031

3.4關註 Qwen 與 DeepSeek 032

3.5在智能體開發平臺中配置與調用 LLM 033

3.5.1模型選擇 033

3.5.2核心參數調整 033

3.6本章小結 035

  第 4 章 智能體系統概覽:類型、架構與開發範式

4.1章節導語 036

4.2理解智能體:不同視角的分類方法 036

4.2.1學術界視角:基於行為模型的智能體分類 036

4.2.2產業界視角:基於任務與工具的智能體分類 038

4.3實用型智能體分類體系 039

4.3.1LLM 增強型智能體 040

4.3.2工作流型 / 任務導向型智能體 040

4.3.3自主型智能體 041

4.3.4多智能體系統 041

4.4智能體類型與演化關系圖譜 042

4.5智能體的開發模式與構建路徑 043

4.5.1平臺托管模式 044

4.5.2本地平臺部署模式 044

4.5.3框架式代碼開發模式 045

4.6本章小結 046

  第 5 章 選擇合適的“智能體建造工廠”

5.1 章節導語  047

5.2 智能體開發平臺 / 框架:不同的“建造工廠”類型  047

5.2.1 面向代碼開發者的框架 : 專業工具箱 048

5.2.2 面向不具備或僅有少量編程經驗用戶的框架:低代碼 / 無代碼平臺  049

5.3國內入門級智能體平臺:快速體驗 AI 交互 050

5.3.1文心一言 App(百度):智能體的快速“換裝” 050

5.3.2智譜清言(智譜 AI):GLM 系列模型的個性化延伸 050

5.3.3通義千問(阿裏巴巴):Qwen 模型的便捷入口 051

5.3.4入門級平臺總結 052

5.4國內進階級智能體平臺:構建復雜應用的利器 052

5.4.1扣子國內版:功能全面且免費的一站式平臺 052

5.4.2騰訊元器:企業級應用與騰訊生態整合 053

5.4.3支付寶百寶箱:聚焦支付寶生態的智能服務 053

5.4.4Dify.ai:開源、靈活的 LLM 應用編排平臺 054

5.4.5進階級平臺總結 055

5.5國外常見智能體平臺 055

5.6如何選擇適合的平臺 055

5.6.1第一步:深入理解核心需求 056

5.6.2第二步:評估平臺能力矩陣 057

5.6.3第三步:權衡關鍵特性 058

5.6.4第四步:審視成本因素 058

5.6.5第五步:考查文檔支持與社區生態 058

5.6.6第六步:動手試用 059

5.7本章小結 059

  第 6 章 智能體的核心部件:模型、提示詞與記憶

6.1章節導語 060

6.2在扣子中創建第一個智能體:邁出第一步 060

6.3配置大腦:選擇與設定模型 064

6.3.1模型選擇:為智能體挑選合適的“大腦” 064

6.3.2調整關鍵參數:精調“大腦”的運作方式 066

6.4註入靈魂:配置系統提示詞 068

6.5設計開場白與引導語:留下良好的第一印象 070

6.6管理記憶:讓對話保持連貫 071

6.7案例一:“詩人”智能體 072

6.7.1案例開發 072

6.7.2應用發布 075

6.8案例二:代碼解釋器 078

6.9本章小結 080

   第7 章 賦予智能體“超能力”:工具(插件)與知識庫

7.1章節導語 081

7.2LLM 需要外部“裝備”的原因 082

7.3工具(插件):連接服務,執行動作 083

7.3.1常見工具:網絡搜索、計算器、API 調用、數據庫查詢 083

7.3.2在扣子平臺中使用內置工具 084

7.3.3創建自定義 API 插件 086

7.3.4理解工具調用的基本邏輯 (ReAct 模式) 088

7.4知識庫:打造專屬知識大腦 090

7.4.1RAG 原理通俗講解:檢索 + 生成 090

7.4.2在扣子平臺中創建和管理知識庫 092

7.4.3知識庫的檢索設置與優化 094

7.5案例一:用於聯網查詢最新信息的“熱點追蹤器” 096

7.6案例二:基於公司內部規章的“合規問答助手” 099

7.7本章小結 105

  第 8 章 在扣子平臺中設計與實現工作流

8.1章節導語 106

8.2工作流:智能體實現復雜任務的“流水線” 106

8.2.1工作流的概念與價值 106

8.2.2工作流如何賦能 AI 智能體:超越單輪對話的限制 107

8.2.3扣子平臺中工作流的價值:自動化、串聯能力、提升效率 107

8.3工作流可視化編排界面 108

8.3.1進入扣子工作流編輯器:界面概覽與核心區域 108

8.3.2工作流的基本構成:節點與連接線 111

8.4扣子工作流的核心節點詳解與應用 112

8.4.1開始節點與結束節點 112

8.4.2LLM 節點 113

8.4.3知識庫檢索節點 115

8.4.4插件(工具)節點 116

8.4.5意圖識別節點 116

8.4.6代碼節點 118

8.4.7其他節點 119

8.5設計高效工作流的關鍵原則 119

8.5.1目標明確:清晰定義工作流要解決的問題 119

8.5.2邏輯清晰:合理編排節點順序與條件分支 119

8.5.3數據傳遞:確保節點間的輸入 / 輸出準確無誤 120

8.5.4錯誤處理:考慮異常情況與容錯機制 120

8.5.5模塊化與復用:構建可維護、可擴展的工作流 121

8.5.6測試與疊代:不斷優化工作流的性能與效果 122

8.6扣子平臺中工作流的運行機制淺析 123

8.6.1事件如何觸發工作流的執行 123

8.6.2節點如何按順序或條件執行 123

8.6.3數據如何在節點間流動與轉換 124

8.6.4理解扣子工作流的調試與日誌功能 124

8.7案例:周報自動生成器 126

8.7.1創建智能體 126

8.7.2創建工作流 127

8.7.3設定“人設與回復邏輯” 132

8.7.4關聯工作流到智能體 133

8.7.5設定開場白 133

8.7.6調試與優化 133

8.8本章小結 135

  第 9 章 扣子平臺多智能體協作初探

9.1章節導語 136

9.2單智能體的局限與多智能體協作的必要性 136

9.3扣子平臺對多智能體協作的支持方式 138

9.4案例:模擬一個小型市場分析團隊 140

9.4.1基本信息 140

9.4.2規劃智能體角色 140

9.4.3創建智能體 (作為獨立的智能體) 140

9.4.4創建主控智能體並啟用多 Agents 模式 144

9.4.5調試與優化 147

9.5本章小結 150

   第 10 章 拓寬視野:其他主流公共智能體平臺快速體驗  

10.1章節導語 151

10.2騰訊元器:結合騰訊生態的 AI 應用構建 151

10.2.1核心特色簡介 152

10.2.2快速上手示例: “AI 旅行隨筆配圖助手” 152

10.3智譜清言(智譜 AI):GLM 模型的個性化 AI 夥伴 156

10.3.1核心特色簡介 156

10.3.2快速上手示例:創建一個“唐詩宋詞小助手” 156

10.4通義千問:Qwen 模型的便捷智能體定制 159

10.4.1核心特色簡介 159

10.4.2快速上手示例:創建一個冒險遊戲 159

10.5本章小結 160

  第 11 章 本地化 AI 智能體的部署與開發

11.1章節導語 162

11.2選擇本地化部署的原因 162

11.3本地化部署面臨的挑戰(硬件、技術門檻) 164

11.4本地 LLM 運行框架 166

11.4.1Transformers 庫:LLM 的基石 167

11.4.2LLM 推理加速技術簡介:專門運行框架的必要性 167

11.4.3Ollama:開箱即用的本地 LLM 運行體驗 169

11.4.4vLLM:面向高吞吐量和低延遲的專業級推理服務 171

11.4.5Xinference:多功能、可擴展的分布式推理框架 172

11.5語義嵌入及向量數據庫 174

11.5.1語義嵌入 174

11.5.2向量數據庫:語義理解與高效檢索的基石 175

11.5.3知識圖譜:連接關系,深化理解 176

11.6模型庫:獲取與分享預訓練模型的寶庫 177

11.7本地智能體應用構建平臺 178

11.7.1Dify(私有化部署版):一體化的 LLM 應用開發平臺 178

11.7.2AnythingLLM:專註構建私人 AI 文檔助手 180

11.7.3Ragflow:面向深度文檔理解的專業 RAG 引擎 181

11.7.4n8n:通用的工作流自動化平臺 183

11.7.5綜合對比與選擇指南 184

11.8其他值得關註的本地化相關框架與工具 184

11.8.1代碼優先的智能體開發框架 184

11.8.2自主智能體框架 185

11.8.3Text-to-SQL 框架 186

11.8.4模型微調與實驗工具 186

11.9本章小結 186

  第 12 章 搭建高效的 AI 智能體開發環境

12.1章節導語 188

12.2核心原則與準備工作 188

12.3GPU 驅動與 CUDA 工具包 189

12.4Anaconda:Python 環境與包管理器 189

12.5PyTorch:核心深度學習框架 190

12.6Docker:應用容器化的利器 190

12.7其他有用的工具與建議 191

12.8本章小結 192

  第 13 章 Ollama 實戰:在本地運行與管理大模型

13.1章節導語 193

13.2Ollama 的安裝與基本配置 193

13.2.1支持的操作系統與硬件建議 193

13.2.2下載與安裝 Ollama 194

13.2.3基本配置與環境變量 195

13.3下載與運行常用開源模型 195

13.3.1瀏覽 Ollama 官方模型庫 195

13.3.2使用 ollama pull 命令下載模型 196

13.3.3使用 ollama run 命令啟動並與模型交互 197

13.3.4使用 ollama list 命令查看已下載的模型 197

13.3.5使用 ollama rm 命令刪除模型 198

13.3.6直接執行單個提示詞並退出 198

13.4Ollama API 調用基礎 199

13.5模型量化技術與 Llama.cpp 簡介:Ollama 背後的功臣 200

13.5.1模型量化技術 (Model Quantization) 200

13.5.2Llama.cpp:高效的 C/C++ 推理引擎 201

13.6Open WebUI:Ollama 的便捷圖形化伴侶 202

13.7實戰:使用 Ollama 本地運行 Qwen 和 DeepSeek 模型,

進行 API 測試 202

13.7.1實戰一:運行 Qwen3 模型 203

13.7.2實戰二:使用 Ollama 運行多模態模型理解圖片內容 207

13.8本章小結 211

  第 14 章 性能與多能:vLLM 與Xinference 簡介

14.1章節導語 212

14.2準備本地模型:Hugging Face 與 ModelScope 下載詳解 212

14.3vLLM:為高性能 LLM 服務而生 214

14.4Xinference:統一服務多種 AI 模型 215

14.5與智能體應用框架的集成 216

14.6本章小結 216

  第 15 章 Dify 私有化部署實戰:構建本地智能體應用  

15.1章節導語 218

15.2Dify 本地環境搭建 218

15.3連接本地模型服務 221

15.4案例:構建簡單的本地知識庫問答應用 223

15.4.1案例目標、數據準備與模型準備 223

15.4.2在本地 Dify 中創建知識庫 224

15.4.3創建問答型應用並配置 226

15.4.4調試與測試 229

15.4.5應用的發布與部署 231

15.5本章小結 234

  第 16 章 Ragflow 實戰:本地化 RAG 流程深度優化

16.1章節導語 235

16.2Ragflow 安裝 235

16.2.1前提條件 236

16.2.2啟動服務 236

16.2.3系統配置 237

16.3Ragflow 基本用法:創建知識庫與本地模型問答 238

16.4Ragflow 的適用場景與進一步探索 240

16.5本章小結 241

  第 17 章 使用 Ollama 與 OpenAI 庫構建本地 AI 智能體 

17.1章節導語 242

17.2環境準備 243

17.2.1確保 Ollama 服務與模型就緒 243

17.2.2安裝 OpenAI Python 庫 243

17.2.3配置 OpenAI 客戶端指向本地 Ollama 243

17.3簡單調用:與本地Qwen 模型的基本交互 244

17.4多輪對話:管理本地Qwen 模型的對話歷史 245

17.5工具調用 247

17.5.1定義工具 247

17.5.2實現工具調用循環 249

17.6結合本地模型手動實現 RAG 253

17.7RAG 直接與本地模型 API 交互的考量 258

17.8本章小結 258

         第 18 章 CrewAI 實戰:輕松搭建協作型 AI 智能體團隊

18.1章節導語 260

18.2CrewAI 簡介及其入門優勢 261

18.3CrewAI 的環境準備與安裝 262

18.4CrewAI 的核心組件詳解與示例 263

18.4.1定義智能體 263

18.4.2定義任務 265

18.4.3組建 Crew(團隊)並執行 267

18.4.4優化與擴展思考 269

18.5使用 crewai create 命令快速搭建項目 270

18.6CrewAI 生態系統與 CrewAI+ 平臺 270

18.7本章小結 272

19.1章節導語 273

19.2LangChain 的核心理念與架構概覽 274

19.2.1核心理念:賦能 LLM 與外部世界交互 274

19.2.2LangChain 的主要模塊 / 組件概覽 274

19.2.3LCEL 簡介 275

19.3LangChain 及核心依賴的安裝 276

19.4LangChain 關鍵組件詳解與 LCEL 入門 276

19.4.1模型組件:連接本地 Ollama 模型 276

19.4.2提示組件:靈活管理提示 278

19.4.3檢索組件:強大的 RAG 能力 282

19.4.4記憶組件:為對話賦予記憶 285

19.4.5鏈組件:編排 LLM 調用與邏輯 286

19.4.6智能體組件:實現自主決策與行動 287

19.5LangChain 的優勢與挑戰 290

19.6本章小結 290

   第 20 章 智能體的成熟之路:評估、部署、連接與展望  

20.1章節導語 292

20.2智能體的“體檢”:評估、測試與優化 293

20.2.1評估的重要性 293

20.2.2核心評估維度與常用指標 293

20.2.3實用的測試方法 294

20.2.4常見問題診斷與優化技巧(回顧與總結) 294

20.3讓智能體走向世界:發布、分享與集成 295

20.3.1智能體應用的常見部署形式 295

20.3.2發布與部署實操回顧 295

20.3.3智能體分享與智能體商店的興起 296

20.3.4發布前的準備與註意事項 296

20.4互操作的未來:從連接規範到智能體間的對話 297

20.4.1模型上下文協議(MCP)的願景 297

20.4.2智能體互聯協議(A2A)的探索 297

20.4.3當前平臺與框架的“連接”與“對話”能力提升(回顧) 298

20.5智能體的星辰大海:趨勢、挑戰與倫理 298

20.5.1AI 智能體的技術發展趨勢展望 298

20.5.2AI 智能體重塑行業與個人生活 299

20.5.3關鍵挑戰 300

20.5.4負責任的 AI 開發 300

20.6本章小結 301

術語表 302

參考文獻 307