基於認知深度學習的智能自主無人系統設計與開發
- 出版商: 機械工業
- 出版日期: 2025-09-01
- 售價: $654
- 語言: 簡體中文
- 頁數: 276
- ISBN: 7111786955
- ISBN-13: 9787111786955
-
相關分類:
無人機
- 此書翻譯自: Intelligent Autonomous Drones with Cognitive Deep Learning: Build Ai-Enabled Land Drones with the Raspberry Pi 4
下單後立即進貨 (約4週~6週)
商品描述
本書以認知深度學習和無人探測車的制作為主線,介紹了構建智能自主無人探測車的各項關鍵技術,希望能為有誌於人工智能行業的讀者在實踐上提供幫助。本書 ~3章對成功搭建無人探測車的基礎知識和必要工具進行了介紹;第4~8章對無人探測車所涉及的操作系統、開發環境、模擬環境、導航和控制、即時地圖生成、計算機視覺等重要技術進行了全面的闡述;第9~13章視為理論深化部分,希冀讀者能在前面實踐的基礎上 全面地掌握相關理論和技術,從而提升自己在實際工作中的規劃和設計能力。本書主要面向人工智能無人系統相關領域的工程師、研究生和業余愛好者。
作者簡介
大衛·艾倫·布呂博(David Allen Blubaugh)經驗豐富的計算機和電氣工程師,目前在ATR公司工作,並和Benjamin Sears一起在辛克萊學院進修無人機操作員學位課程。David對於MSP 430微控制器和樹莓派4之類的嵌入式系統擁有豐富的開發經驗。斯蒂芬·D.哈伯(Steven D. Harbour美國西南研究所代頓工程 項目實驗室的主管工程師和科學家。他是美國國防研究和工程的專業人士,在工程及航空學科和多個應用領域擁有超過25年的經驗。他領導和運營了很多正在進行當中的基礎和應用研究項目,包括第三代尖峰神經網絡、神經形態工程以及包括人機協作在內的神經形態應用的開發。本傑明·西爾斯(Benjamin Sears)具有多年無人機飛行員/操作員工作經驗,深入理解無人機任務和機組人員資源管理背後的理論。邁克爾·J.芬德勒(Michael J. Findler)萊特州立大學講師,具有嵌入式系統的開發經驗,目前在人工智能的各個領域從事開發工作。
目錄大綱
譯者序
第1章 探測車平臺概覽
1.1 本章目標
1.2 認知深度學習子系統
1.2.1 基本的系統組件
1.2.2 系統的基本原理
1.2.3 設計約束
1.2.4 其他需求
1.2.5 軟件系統特性
1.2.6 體系架構
1.3 AI探測車統計分析
1.3.1 底盤的選擇
1.3.2 機器人操作系統
1.3.3 Pixhawk 4自動駕駛儀
1.3.4 AI探測車任務分析
1.3.5 AdruPilot任務規劃器軟件
1.3.6 AI探測車功耗分析
1.3.7 AI探測車的面向對象編程
1.3.8 組件清單
1.3.9 樹莓派探測車套件清單
1.4 本章練習
第2章 AI探測車平臺設計與分析
2.1 本章目標
2.2 將問題置於應用場景中
2.3 為AI探測車繪制第一版靜態UML圖
2.4 為AI探測車繪制第一版動態UML圖
2.5 為AI探測車繪制第一版動態UML類圖
2.6 為AI探測車繪制第一版動態UML序列圖
2.7 本章小結
2.8 本章練習
第3章 安裝Linux和開發工具
3.1 本章目標
3.2 安裝VirtualBox軟件
3.3.1 更新Ubuntu 20.04.4
3.3.2 配置Ubuntu軟件倉庫
3.4 安裝Anaconda
3.5 ROS源列表
3.6 ROS環境變量密鑰
3.7 安裝ROS
3.7.1 通過rosinstall安裝附加庫
3.7.2 首次啟動ROS
3.7.3 添加ROS路徑
3.7.4 創建ROS Catkin工作空間
3.7.5 Noetic ROS的最終檢測
3.7.6 Noetic ROS的體系架構
3.7.7 簡單的“Hello World”ROS測試
3.7.8 ROS RQT Graph
3.7.9 ROS Gazebo
3.8 本章小結
3.9 本章練習
第4章 搭建一臺簡單的虛擬探測車
4.1 本章目標
4.2 ROS、RViz和Gazebo
4.3 ROS必備命令
4.4 機器人可視化(RViz)
4.4.1 Catkin工作空間回顧
4.4.2 URDF和SDF之間的關系
4.4.3 構建底盤
4.4.4 使用ROSLAUNCH命令
4.4.5 創建車輪和駕駛儀
4.4.6 創建AI探測車的腳輪
4.4.7 為AI探測車添加顏色(可選操作)
4.4.8 碰撞屬性
4.4.9 測試AI探測車的車輪
4.4.10 物理屬性
4.5 Gazebo簡介
4.5.1 Gazebo的背景信息
4.5.2 啟動Gazebo
4.5.3 Gazebo環境的工具欄
4.5.4 不可見關節面板
4.5.5 Gazebo的菜單欄
4.5.6 URDF向Gazebo SDF的轉換
4.5.7 檢查URDF向Gazebo SDF的轉換
4.5.8 Gazebo中第一個受控AI探測車模型
4.5.9 首次應用深度學習的可能性
4.5.10 用關節面板移動AI探測車
4.6 本章小結
4.7 本章練習
第5章 在仿真系統中添加傳感器
5.1 本章目標
5.2 XML宏編程語言
5.3 更多XML示例
5.4 重構探測車
5.4.1 模塊化設計的探測車
5.4.2 Gazebo插件
5.4.3 系統集成
5.4.4 Gazebo啟動文件
5.4.5 Xacro和Gazebo排錯
5.5 探測車的遠程操控(Teleop)節點
5.6 可視化工具TF Graph
5.7 控制探測車
5.7.1 探測車的漂移問題
5.7.2 第一個Python控制器
5.8 構建虛擬環境
5.9 本章小結
5.10 本章練習
第6章 感知與避障
6.1 本章目標
6.2 理解坐標系
6.3 構建探測車的環境模型
6.3.1 項目的組織
6.3.2 墓穴建模(簡化版)
6.4 激光測距濾波器的設置
6.5 感知和規避障礙
6.5.1 源代碼分析
6.5.2 解譯LiDAR傳感器數據
6.5.3 感知和規避障礙
6.5.4 執行避障代碼
6.6 本章小結
6.7 本章練習
第7章 導航、SLAM和目標位置
7.1 本章目標
7.2 概述
7.3 任務類型
7.4 裏程計
7.4.1 探測車的局部導航
7.4.2 探測車的全局導航
7.4.3 獲取探測車的航向(方向)
7.4.4 執行rotateRobotOdom.py
7.5 控制理論
7.6 即時定位與地圖構建
7.6.1 安裝SLAM及相關庫
7.6.2 設置SLAM庫
7.6.3 導航的目標及任務
7.7 地圖的重要性
7.8 啟動探測車
7.8.1 創建ai_rover_world.launch
7.8.2 slam_gmapping啟動文件
7.8.3 準備slam_gmapping包
7.8.4 修改gmapping_demo.launch文件
7.8.5 RViz中的gmapping
7.9 最終的啟動終端命令
7.9.1 RViz中的地圖構建配置
7.9.2 檢查Laserscan配置
7.9.3 檢查地圖構建配置
7.9.4 保存RViz的配置
7.9.5 Noetic SLAM的補充知識
7.9.6 map_server ROS節點
7.9.7 保存或修改地圖圖像
7.9.8 地圖圖像數據文件rover_map.pgm
7.9.9 地圖圖像元數據文件rover_map.yaml
7.9.10 ROS的Bag文件
7.9.11 ROS Bag文件的重要性
7.10 自適應蒙特卡羅定位(找到丟失的探測車)
7.10.1 配置ROS中的AMCL節點
7.10.2 定位和AMCL的重要性
7.10.3 RViz中AMCL的可視化
7.10.4 用RViz改變探測車的姿態