大模型安全、監理與合規

王賢智 葉娟 陳夢園 劉子旭

  • 出版商: 機械工業
  • 出版日期: 2024-10-17
  • 售價: $594
  • 貴賓價: 9.5$564
  • 語言: 簡體中文
  • 頁數: 252
  • 裝訂: 平裝
  • ISBN: 7111763238
  • ISBN-13: 9787111763239
  • 相關分類: LangChain
  • 立即出貨

相關主題

商品描述

這是一本從技術安全、監管架構、合規要求、倫理道德等角度全面講解生成式人工智慧安全問題的實戰性著作。
本書在堅實的理論基礎上,透過豐富的案例和翔實的數據,
系統整理了企業當下在生成式人工智慧實踐中面臨的各種安全挑戰,並給出了應對策略。
本書的目標是為讀者提供全面且實用的行動框架和實作指南,以促進生成式人工智慧產業的健康發展。
本書融合了跨領域專家的技術和經驗,作者團隊包括安全領域的資深技術精英、微軟創新教育專家(MIEE)、生成式人工智慧技術專家,
以及在大數據企業、法律界深耕多年的智慧財產權與資料合規方面的專家。
他們憑藉各自的專業知識和實務經驗,將理論與實務緊密結合,為讀者提供了寶貴的見解和參考。
閱讀並掌握本書,你將收穫以下10個面向知識:
(1)大模型安全的範疇、現況與挑戰:包括安全、監理與合規的關鍵議題,以及國家安全與社會治理角度安全隱憂與風險點。
(2)大模型技術層面的安全風險:包括資訊安全原則、傳統安全風險、識別和分析人類意圖的挑戰,以及大模型的固有脆弱性。
(3)大模型監管與合規的法律架構:包括全球範圍內的AIGC的監管現狀,
如訴訟壓力、執法調查和立法進展,以及國內監管體系和國外典型法域的監管實務。
(4)大模型智慧財產權合規:在大模型的開發與應用中,如何確保智慧財產權的合規性,
包括著作權、開源協議、專利權、商標權和商業機密的保護。
(5)大模型資料合規:在大模型的建置過程中如何確保資料合規,包括模型訓練、應用和最佳化等全流程的資料合規。
(6)大模型內容安全:在大模型的應用過程中如何確保內容安全,包括內容監管、內容安全風險和內容安全合規。
(7)大模型演算法合規:在大模型的建構與應用開發過程中如何確保演算法合規,包括演算法備案、人工智慧安全評估、演算法公開透明、
演算法產生內容標識、演算法反歧視、與演算法相關的侵權和演算法合規要點總結。
(8)大模型倫理安全:在大模型的建構與應用過程中如何確保倫理安全,包括倫理風險、成因分析、治理實務、因應策略和自查工具表。
(9)大模型的安全保障方案:如何建構一個既安全又可信的大模型環境,
包括傳統技術層面的安全保障、資料層面的保障策略、可信任屬性角度的安全防護策略。
(10)生成式人工智慧的發展趨勢:從技術視角和法律視角,洞察大模型在安全、監管與合規方面的發展趨勢。

目錄大綱

前言
第1章 大語言模型安全及其挑戰1
1.1 大語言模型的發展歷史與技術現況2
1.1.1 序章:起源與早期形態2
1.1.2 轉折:神經網路的興起2
1.1.3 現代巨人:GPT與BERT的時代3
1.1.4 技術現況與應用領域4
1.2 大語言模型安全的範疇5
1.2.1 大語言模型的技術安全:關鍵挑戰是什麼5
1.2.2 大語言模型的監管與合規:面臨哪些關鍵問題6
1.3 生成式人工智慧安全的重要性6
1.3.1 提升大語言模型的社會信任與聲譽7
1.3.2 降低大語言模式的法律風險9
1.3.3 保護大語言模型的使用者資料隱私9
1.3.4 保障大語言模式服務的連續性10
1.3.5 提高大語言模型的系統穩定性11
1.4 大語言模型安全的現況與挑戰11
1.4.1 大語言模型的安全隱憂與主要風險點12
1.4.2 大語言模型與國家安全風險14
1.4.3 大語言模式安全治理之道:發展與安全並重15

第2章 大語言模型技術層面的安全風險17
2.1 大語言模型的資訊安全原則18
2.1.1 機密性18
2.1.2 完整性18
2.1.3 可用性18
2.2 傳統安全風險19
2.2.1 傳統網路攻擊仍具有威力20
2.2.2 常見的傳統網路攻擊方式21
2.3 辨識與分析人類意圖上的挑戰21
2.3.1 惡意意圖的識別難題22
2.3.2 AI生成假訊息傳播23
2.3.3 利用AI進行駭客攻擊24
2.4 大語言模型的固有脆弱性24
2.4.1 對抗攻擊25
2.4.2 後門攻擊29
2.4.3 Prompt攻擊30
2.4.4 資料投毒攻擊31
2.4.5 模型竊取攻擊32
2.4.6 資料竊取攻擊33
2.4.7 其他常見安全風險34

第3章 大語言模型監理與合規的法律架構37
3.1 全球視野下的AIGC監理現況38
3.1.1 AIGC企業面臨的訴訟壓力38
3.1.2 針對AIGC企業的執法調查屢見不鮮41
3.1.3 各國抓緊AIGC相關立法44
3.2 國內的監理體系45
3.2.1 國內監理體系概述45
3.2.2 國內現行監理政策整理與總結48
3.2.3 國內重點監理政策解讀50
3.3 國外的典型法域54
3.3.1 歐盟54
3.3.2 美國68
3.3.3 英國73
3.3.4 新加坡75
3.3.5 加拿大77
3.3.6 韓國78

第4章 大語言模型智慧財產權合規81
4.1 著作權82
4.1.1 著作權概述82
4.1.2 AIGC生成物的著作權定性分析82
4.1.3 AIGC技術相關的著作權侵權風險85
4.1.4 典型案例分析88
4.1.5 小結99
4.2 開源協定103
4.2.1 開源協定概述103
4.2.2 開源協定引發的侵權風險106
4.2.3 涉及開源協定的相關案例107
4.2.4 涉及開源協議的侵權風險防範措施109
4.3 專利權109
4.3.1 專利權概述109
4.3.2 AIGC情境下的專利權相關問題110
4.4 商標權112
4.4.1 商標權概述112
4.4.2 AIGC場景下的商標侵權113
4.4.3 人工智慧生成物與商標侵權113
4.5 商業機密115
4.5.1 商業機密概述115
4.5.2 AIGC場景下常見的商業機密相關風險116
4.5.3 典型案例分析118
4.5.4 小結120

第5章 大語言模型資料合規123
5.1 模型訓練階段124
5.1.1 資料收集124
5.1.2 資料品質提升134
5.2 模型應用階段137
5.2.1 告知同意138
5.2.2 個人資訊權利行使138
5.2.3 收集兒童個人資料139
5.2.4 資料跨境139
5.3 模型最佳化階段142
5.3.1 資料使用142
5.3.2 資料安全143

第6章 大語言模型內容安全145
6.1 內容安全監理146
6.1.1 國內視角下的監管146
6.1.2 國外視角下的監管147
6.2 內容安全風險149
6.2.1 權利人所提起的民事侵權責任149
6.2.2 監理機關提起的行政處罰150
6.2.3 刑事處罰150
6.3 內容安全合規151
6.3.1 模型訓練階段151
6.3.2 模型應用階段155
6.3.3 模型最佳化階段160

第7章 大語言模型演算法合規163
7.1 演算法合規框架概述164
7.2 演算法備案164
7.2.1 法律依據及實施概況164
7.2.2 備案流程166
7.2.3 演算法備案入口及角色167
7.2.4 備案所需準備的文件及資料168
7.2.5 備案期限168
7.3 人工智慧安全評估169
7.4 演算法公開透明170
7.5 演算法生成內容標識173
7.6 演算法反歧視176
7.6.1 演算法設計178
7.6.2 訓練資料選擇179
7.6.3 模型生成與最佳化180
7.7 與演算法有關的侵權181
7.8 演算法合規要點總結185

第8章 大語言模式倫理安全187
8.1 大語言模式倫理:AI科技進步的道德維度188
8.1.1 三個案例引發對AI倫理的思考188
8.1.2 人工智慧倫理概述:一個複雜且涵蓋多面向的議題191
8.2 人工智慧倫理的重要性191
8.2.1 提升公眾信任:大語言模式倫理規範的社會影響192
8.2.2 確保合規性:企業和組織遵守倫理規範的必要性192
8.2.3 面向永續的未來:倫理規範的長期社會影響193
8.3 大語言模式倫理安全風險及成因分析194
8.3.1 主要的倫理風險194
8.3.2 倫理風險的成因195
8.4 我國人工智慧倫理治理實踐195
8.4.1 我國人工智慧倫理相關法規政策概述196
8.4.2 確立科技倫理治理體制機制198
8.5 大語言模式倫理風險因應策略205
8.5.1 研究開發者的責任205
8.5.2 設計製造者的責任206
8.5.3 部署應用者的責任207
8.5.4 用戶的責任208

第9章 大語言模型的安全保障方案211
9.1 傳統技術層面的安全保障212
9.1.1 大語言模型在系統層面的安全挑戰212
9.1.2 大語言模型中可應用的經典安全技術214
9.1.3 應用傳統安全實務的經驗215
9.2 資料層面的保障策略217
9.2.1 資料收集階段面臨的安全挑戰218
9.2.2 訓練階段的安全建議219
9.2.3 模型推理階段的安全建議220
9.3 可信賴屬性角度的安全防護策略221
9.3.1 大語言模型可信賴的支柱222
9.3.2 人類監管與監督223
9.3.3 技術健壯性與安全性223
9.3.4 隱私與資料治理224
9.3.5 透明度226
9.3.6 多樣性與公平性228
9.3.7 社會與環境變遷229
9.3.8 問責機制231

第10章 生成式人工智慧未來展望233
10.1 技術視角看大語言模型安全的發展趨勢234
10.1.1 增強安全性與可靠性234
10.1.2 提高透明性與可解釋性235
10.1.3 優化性能與效率236
10.1.4 應對深度偽造技術237
10.1.5 區塊鏈技術的整合238
10.2 法律觀點看大語言模式安全的發展趨勢239
10.2.1 全球資料保護法規在大模型領域的細化與完善240
10.2.2 全球範圍內演算法監管架構的逐漸完善241
10.2.3 AI時代的智慧財產權244
10.2.4 倫理規範的法律化251