人工智能边缘计算开发实战:基于NVIAJetsonNano
全新正版 极速发货
¥
72.4
7.3折
¥
99
全新
库存3件
作者编者:陈泳翰//桑圆圆|责编:耍利娜
出版社化学工业
ISBN9787122437334
出版时间2024-02
装帧平装
开本其他
定价99元
货号31966130
上书时间2024-11-15
商品详情
- 品相描述:全新
- 商品描述
-
作者简介
无
目录
第1章 初识边缘AI计算001
1.1 人工智能驱动的边缘计算002
1.2 适配深度神经网络的众核架构 003
1.3 选择合适的人工智能学习平台 006
1.4 英伟达的“高效/易用/兼容”开发生态 009
1.5 学习边缘AI计算从Jetson上手 012
1.6 Jetson的AIoT成功案例与配套资源 015
1.7 本章小结017
第2章 为Jetson设备安装开发环境019
2.1 Jetpack提供完整的AIoT开发资源019
2.2 用Jetpack安装Jetson设备022
2.3 首次启动Jetson设备026
2.4 远程控制Jetson设备027
2.5 检查系统状态的基础指令031
2.6 监控与调试Jetson设备的性能032
2.7 配套的辅助工具034
2.8 本章小结036
第3章 体验Jetpack开发环境037
3.1 CUDA并行计算的加速性能037
3.1.1 编译CUDA samples038
3.1.2 nbody(粒子碰撞模拟)038
3.1.3 oceanFFT(海洋波动模拟)040
3.1.4 smokeParticles(烟雾粒子光影模拟)041
3.2 高阶计算机视觉开发工具包041
3.2.1 VisionWorks工具包与范例042
3.2.2 VPI简介047
3.2.3 VPI简易Python范例050
3.3 摄像头的选择与调用053
3.3.1 GStreamer流媒体框架054
3.3.2 V4L2 应用库055
3.3.3 libargus 应用库056
3.4 检测摄像头057
3.4.1 用v4l2-ctl检测摄像头参数057
3.4.2 用NvGstCapture启动摄像头059
3.4.3 用gst-launch启动摄像头060
3.5 好用的OpenCV计算机视觉库061
3.5.1 通过UVC调用USB摄像头062
3.5.2 通过GStreamer调用CSI摄像头063
3.5.3 体验三种计算机视觉算法064
3.5.4 简易的人脸定位应用066
3.5.5 简易的眼睛定位应用067
3.6 本章小结068
第4章 深度学习之推理识别070
4.1 智能视觉类三大基础应用071
4.1.1 图像分类(image classif?ication)071
4.1.2 物体检测(object detection)073
4.1.3 语义分割(semantic segmentation)074
4.2 进入Hello AI World076
4.2.1 完整的深度神经网络(DNN)视觉库076
4.2.2 主要功能模块078
4.2.3 安装Hello AI World项目079
4.3 立即体验深度学习推理效果081
4.3.1 总体参数选项说明082
4.3.2 imagenet成批图像的分类检测084
4.3.3 imagenet的参数说明086
4.3.4 detectnet物体检测指令088
4.3.5 其他深度学习推理应用091
4.4 用Python开发自己的深度学习推理应用094
4.4.1 10行代码的物体识别应用094
4.4.2 获取推理检测的信息095
4.4.3 添加参数解析功能,扩大适用范围097
4.5 jetson.utils视觉处理工具100
4.5.1 videoSource()负责全部输入源处理101
4.5.2 videoOutput() 负责全部输出处理104
4.5.3 简单的输入/输出范例105
4.5.4 RTP/RTSP视频流转向应用106
4.6 本章小结109
第5章 深度学习之模型训练110
5.1 调试Jetson的模型训练环境111
5.2 图像分类的模型训练113
5.2.1 整理图像分类的数据 113
5.2.2 用train.py执行训练模型114
5.2.3 用训练好的模型执行推理识别 117
5.2.4 从ImageNet获取图像119
5.3 目标检测的模型训练122
5.3.1 从Open Images获取目标检测数据123
5.3.2 train_ssd.py参数说明126
5.3.3 执行目标检测的模型训练128
5.3.4 模型训练的参数与时间比较131
5.3.5 转成ONNX格式进行推理识别测试131
5.4 更丰富的数据集资源 134
5.4.1 VOC目录结构与标注格式134
5.4.2 从VOC数据集提取所需要的类别136
5.4.3 从COCO数据集抽离类别并转成VOC格式138
5.4.4 从ImageNet数据集抽离类别并转成VOC格式140
5.4.5 汇总多种数据集来源进行模型训练140
5.5 对自己收集的数据进行标注 141
5.5.1 手动收集图像数据 141
5.5.2 图像标注工具142
5.5.3 标注过程需要注意的重点144
5.6 本章小结146
第6章 在Jetson上执行YOLO算法147
6.1 YOLO神经网络简史与算法演进147
6.2 搭配YOLO算法的Darknet框架150
6.2.1 安装Darknet框架150
6.2.2 Darknet使用说明152
6.2.3 执行YOLO目标检测的推理计算154
6.3 用Darknet训练YOLO口罩识别模型157
6.3.1 在Jetson使用YOLOv4-Tiny训练模型158
6.3.2 整理数据集与格式转换159
6.3.3 修改YOLOv4-Tiny网络结构文件161
6.3.4 执行训练模型的步骤163
6.3.5 检测口罩识别模型的效果与性能165
6.4 调用Darknet的Python接口提取识别内容168
6.4.1 darknet_video.py的使用方法168
6.4.2 修改darknet_images.py获取所识别物体的信息170
6.4.3 用darknet_video.py获取识别物件信息172
6.5 本章小结173
第7章 上手DeepStream智能分析工具175
7.1 基于GStreamer框架的DeepStream177
7.1.1 GStreamer框架简介177
7.1.2 GStreamer通道结构的组件与衬垫179
7.1.3 GStreamer箱柜的管理机制180
7.2 DeepStream的运作体系183
7.2.1 DeepStream的功能组件183
7.2.2 DeepStream的数据流186
7.2.3 DeepStream组件与硬件引擎之对应189
7.3 执行DeepStream经典范例191
7.3.1 安装DeepStream 开发套件191
7.3.2 deepstream-app范例简介193
7.3.3 deepstream-app配置文件与相关资源194
7.3.4 开始deepstream-app实验197
7.4 深入deepstream-app配置文件设置组200
7.4.1 系统类设置组201
7.4.2 输入源设置组202
7.4.3 预处理设置组205
7.4.4 智能计算设置组206
7.4.5 信息汇总之视觉显示设置组209
7.4.6 信息汇总之IoT传送设置组211
7.5 deepstream-app更多应用213
7.5.1 添加多个输入源214
7.5.2 调整显示输出的细节216
7.5.3 目标跟踪功能217
7.5.4 多神经网络的组合识别219
7.6 本章小结221
第8章 开发DeepStream应用223
8.1 开始DeepStream的Python应用223
8.1.1 配置DeepStream的Python开发环境224
8.1.2 从deepstream-test1上手226
8.1.3 创建DeepStream应用的7步骤228
8.2 DeepStream的输入与输出230
8.2.1 添加USB摄像头231
8.2.2 添加多路多类型输入源功能233
8.2.3 动态增减数据源235
8.2.4 添加RTSP视频流输出236
8.3 DeepStream的智能计算插件240
8.3.1 nvinfer推理插件的角色与工作原理240
8.3.2 nvinfer控制参数与配置文件242
8.3.3 nvtracker目标跟踪算法246
8.3.4 nvtracker控制参数与配置文件248
8.4 DeepStream的智能范例说明249
8.4.1 deepstream-test2多神经网络组合识别249
8.4.2 导入自定义YOLO神经网络插件251
8.4.3 视频动态遮蔽私密信息254
8.4.4 中文车牌号识别257
8.4.5 善用NGC丰富的预训练模型资源262
8.5 DeepStream的统计分析插件263
8.5.1 nvdsanalytics插件工作流与元数据264
8.5.2 nvdsanalytics的配置文件266
8.5.3 执行deepstream-nvdsanalytics范例267
8.6 性能优化基本原则270
8.7 本章小结271
第9章 Jetbot智能车学习系统273
9.1 安装Jetbot操作环境274
9.1.1 用镜像文件烧录275
9.1.2 在Jetson用脚本安装275
9.1.3 下载容器镜像安装(推荐)277
9.1.4 检测环境:登录Jupyter操作界面277
9.2 安装无线网与配置Wi-Fi连线278
9.2.1 安装无线网卡278
9.2.2 为Jetbot配置独立的无线连接方式280
9.2.3 将Jetbot无线网卡设置为热点280
9.2.4 将控制台PC无线网卡设置为热点282
9.2.5 通过便携无线路由器协助283
9.3 组装Jetbot智能车所需要注意的细节284
9.3.1 非标准件的注意细节285
9.3.2 OLED显示屏的选型与处理287
9.3.3 TT电机的选购与测试288
9.4 跑动Jetbot289
9.4.1 基本运动(basic_motion)290
9.4.2 游戏摇杆控制(teleoperation)293
9.5 避撞功能295
9.5.1 Jetbot环境识别原理295
9.5.2 现场演示(live_demo)297
9.5.3 数据采集302
9.5.4 模型训练304
9.6 剖析Jetson的40针引脚304
9.6.1 分清楚GPIO与SFIO的不同306
9.6.2 jetson-io引脚配置工具308
9.6.3 Jetson.GPIO应用开发库309
9.7 浅谈I2C总线与周边设备311
9.7.1 I2C总线的特性311
9.7.2 i2c-tools总线检测工具312
9.7.3 Jetbot控制OLED显示屏的代码314
9.7.4 Jetbot的控制元件与代码315
9.8 本章小结317
内容摘要
本书选取当下大热的AIoT(人工智能物联网)为应用场景,以NVIDIAJetsonNano为硬件平台,系统介绍了人工智能的开发知识,重点讲解了人工智能中边缘计算技术的应用。首先介绍了NVIDIAJetsonNano开发平台和开发环境的配置,然后通过具体的案例介绍了人工智能边缘计算在物体检测、深度学习等领域的应用。 本书适合人工智能初学者、嵌入式开发技术人员、对人工智能技术感兴趣的青少年及创客教师自学使用,同时也可用作高等院校人工智能相关专业的教材及参考书。
主编推荐
本书具有如下特色:
1.内容新颖实用。对于人工智能这种高端学科来说,知难行易,比较好的学习方式就是上手实践。本书将高大上的人工智能技术拉下神坛,通过不同应用场景下的实实在在的案例来实现人工智能,使读者能够更具体地感受人工智能的魅力。
2.讲解细致,通俗易懂。书中不会基于学理去探索各种AI技术的内容,没有任何数学公式的解说,不过分关注与分析各种神经网络和深度学习框架,只要跟着一步步实践起来,就能从中有所收获。
3.配套资源丰富,赠送教学视频、所有程序源代码、开发软件工具包等,方便读者学习与练习。
— 没有更多了 —
以下为对购买帮助不大的评价