移动深度学习
¥
17.83
2.4折
¥
75
九五品
仅1件
作者李永会 著
出版社电子工业出版社
ISBN9787121371820
出版时间2019-09
版次1
装帧平装
开本16开
纸张胶版纸
页数204页
字数99999千字
定价75元
上书时间2024-12-03
商品详情
- 品相描述:九五品
- 商品描述
-
基本信息
书名:移动深度学习
定价:75.00元
作者:李永会 著
出版社:电子工业出版社
出版日期:2019-09-01
ISBN:9787121371820
字数:267600
页码:204
版次:1
装帧:平装
开本:16开
商品重量:
编辑推荐
适读人群 :本书适合移动端研发工程师阅读,也适合所有对移动端运算领域感兴趣的朋友阅读 √ 移动端部署神经网络稀缺资源:ARM汇编|NEON指令|Winograd等实战经验。 n√ 深入移动计算设备体系结构的 PaddlePaddle 移动深度学习系统 Paddle-Lite。 n√ 将深度学习模型以小体积和资源消耗运行在移动设备上,同时追求高性能。 n√ 商业场景中克服技术挑战如模型压缩|编译裁剪|代码精简|多平台支持|汇编优化。 n√ 覆盖移动设备内部结构|汇编指令|CPU性能优化|GPU编程|移动端深度学习框架。 n√ 底层框架|上层应用开发双重视角,从应用需求到底层技术优化,再到产品落地。 n
内容提要
《移动深度学习》由浅入深地介绍了如何将深度学习技术应用到移动端运算领域,书中尽量避免罗列公式,尝试用浅显的语言和几何图形去解释相关内容。本书章展示了在移动端应用深度学习技术的Demo,帮助读者建立直观的认识;第2章至第4章讲述了如何在移动端项目中应用深度学习技术;第5章至第8章的难度略大,主要讲述如何深入地调整框架,适配并定制自己的框架。 n《移动深度学习》适合移动端研发工程师阅读,也适合所有对移动端运算领域感兴趣的朋友阅读。 n
目录
章初窥移动端深度学习技术的应用11.1本书示例代码简介11.1.1安装编译好的文件11.1.2在DemoApp中应用神经网络技术21.2移动端主体检测和分类21.3在线上产品中以“云+端计算”的方式应用深度学习技术41.4在移动端应用深度学习技术的业界案例61.4.1植物花卉识别61.4.2奇妙的风格化效果71.4.3视频主体检测技术在App中的应用71.5在移动端应用深度学习技术的难点81.5.1在服务器端和移动端应用深度学习技术的难点对比81.5.2实现AR实时翻译功能91.6编译运行深度学习App121.6.1mobile-deep-learning项目环境简介121.6.2mobile-deep-learning项目整体代码结构131.6.3mobile-deep-learning通用环境依赖141.7在iOS平台上搭建深度学习框架151.7.1在iOS平台上搭建mobile-deep-learning项目151.7.2在OSX平台上编译mobile-deep-learning项目161.7.3iOS平台上mobile-deep-learning项目的Demo代码结构171.8在Android平台上搭建深度学习框架181.8.1Android平台上mobile-deep-learning项目的环境依赖181.8.2Android平台上mobile-deep-learning项目的Demo代码结构191.8.3用Paddle-Lite框架编译与开发Android应用201.8.4开发一个基于移动端深度学习框架的AndroidApp22第2章以几何方式理解线性代数基础知识322.1线性代数基础322.1.1标准平面直角坐标系322.1.2改变坐标系的基向量342.2向量的几何意义352.2.1向量的加减运算362.2.2向量的数乘运算372.3线性组合的几何意义382.4线性空间402.5矩阵和变换412.6矩阵乘法432.7行列式462.8矩阵的逆482.9秩492.10零空间502.11点积和叉积的几何表示与含义512.11.1点积的几何意义512.11.2叉积的几何意义522.12线性代数的特征概念532.13抽象向量空间54第3章什么是机器学习和卷积神经网络563.1移动端机器学习的全过程563.2预测过程573.3数学表达593.3.1预测过程涉及的数学公式593.3.2训练过程涉及的数学公式603.4神经元和神经网络613.4.1神经元613.4.2神经网络633.5卷积神经网络633.6图像卷积效果653.6.1从全局了解视觉相关的神经网络653.6.2卷积核和矩阵乘法的关系663.6.3多通道卷积核的应用693.7卷积后的图片效果703.8卷积相关的两个重要概念:padding和stride753.8.1让卷积核“出界”:padding753.8.2让卷积核“跳跃”:stride753.9卷积后的降维操作:池化763.10卷积的重要性77第4章移动端常见网络结构784.1早期的卷积神经网络784.2AlexNet网络结构794.3GoogLeNet网络结构794.3.1模型体积问题804.3.2计算量问题804.4尝试在App中运行GoogLeNet814.4.1将32位float参数转化为8位int参数以降低传输量824.4.2将CPU版本服务器端框架移植到移动端834.4.3应用在产品中的效果844.5轻量化模型SqueezeNet854.5.1SqueezeNet的优化策略854.5.2fire模块864.5.3SqueezeNet的全局864.6轻量高性能的MobileNet884.6.1什么是深度可分离卷积(DepthwiseSeparableConvolution)884.6.2MobileNetv1网络结构894.6.3MobileNetv2网络结构914.7移动端神经网络模型的优化方向92第5章ARMCPU组成945.1现代计算机与ARMCPU架构的现状945.1.1冯?诺依曼计算机的基本结构945.1.2移动计算设备的分工965.2简单的CPU模型985.2.1取指过程985.2.2译码过程995.2.3执行过程1005.2.4回写过程1015.2.5细化分工:流水线技术1025.3汇编指令初探1025.3.1汇编语言程序的行1025.3.2这些指令是什么1055.4汇编指令概况1065.4.1ARMCPU家族1065.4.2ARMv7-A处理器架构1075.4.3ARMv7汇编指令介绍1095.5ARM指令集架构1115.6ARM手机芯片的现状与格局113第6章存储金字塔与ARM汇编1156.1ARMCPU的完整结构1156.2存储设备的金字塔结构1176.3ARM芯片的缓存设计原理1196.3.1缓存的基本理解1196.3.2简单的缓存映射结构:直接映射1216.3.3灵活高效的缓存结构:组相联映射1236.3.4利用一个简单的公式优化访存性能1256.4ARM汇编知识1266.4.1ARM汇编数据类型和寄存器1276.4.2ARM指令集1306.4.3ARM汇编的内存操作1316.5NEON汇编指令1336.5.1NEON寄存器与指令类型1346.5.2NEON存储操作指令1356.5.3NEON通用数据操作指令1376.5.4NEON通用算术操作指令1386.5.5NEON乘法指令1396.5.6运用NEON指令计算矩阵乘法140第7章移动端CPU预测性能优化1427.1工具及体积优化1427.1.1工具使用1437.1.2模型体积优化1487.1.3深度学习库文件体积优化1497.2CPU高性能通用优化1507.2.1编译选项优化1507.2.2内存性能和耗电量优化1517.2.3循环展开1537.2.4并行优化与流水线重排1547.3卷积性能优化方式1577.3.1滑窗卷积和GEMM性能对比1577.3.2基于Winograd算法进行卷积性能优化1607.3.3快速傅里叶变换1627.3.4卷积计算基本优化1637.4开发问题与经验总结164第8章移动端GPU编程及深度学习框架落地实践1668.1异构计算编程框架OpenCL1668.1.1开发移动端GPU应用程序1678.1.2OpenCL中的一些概念1688.2移动端视觉搜索研发1698.2.1初次探索移动端AI能力1708.2.2取消拍照按钮,提升视觉搜索体验1718.2.3使用深度学习技术提速视觉搜索1728.2.4通过AI工程技术提升视觉搜索体验1748.3解决历史问题:研发Paddle-Lite框架1768.3.1体积压缩1788.3.2工程结构编码前重新设计1788.3.3视觉搜索的高级形态:实时视频流式搜索184
作者介绍
李永会 n百度App移动研发部资深工程师。2015年起在百度从事图像搜索和语音搜索客户端研发工作,主持了多个重要创新项目,包括百度Lens、实时翻译等。同时负责开源移动端深度学习框架Paddle-Lite的开发,长期从事移动端AI高性能计算优化工作,在多种软硬件平台上高性能运行深度学习技术。在工作之余有读史、书法等爱好。 n
序言
— 没有更多了 —
以下为对购买帮助不大的评价