全新正版未拆封
¥ 63.57 4.9折 ¥ 129 全新
库存2件
作者[保]伊凡·瓦西列夫(Ivan Vasilev) 著;冀振燕、赵子涵、刘伟、刘冀、瑞董为 译
出版社机械工业出版社
出版时间2021-10
版次1
装帧平装
上书时间2024-10-03
本书集合了基于应用领域的高级深度学习的模型、方法和实现。本书分为四部分。第1部分介绍了深度学习的构建和神经网络背后的数学知识。第二部分讨论深度学习在计算机视觉领域的应用。第三部分阐述了自然语言和序列处理。讲解了使用神经网络提取复杂的单词向量表示。讨论了各种类型的循环网络,如长短期记忆网络和门控循环单元网络。第四部分介绍一些虽然还没有被广泛采用但有前途的深度学习技术,包括如何在自动驾驶上应用深度学习。学完本书,读者将掌握与深度学习相关的关键概念,学会如何使用TensorFlow和PyTorch实现相应的AI解决方案。
译者序< br/> 前言< br/> 作者简介< br/> 审校者简介< br/> 第一部分核心概念< br/> 第1章神经网络的具体细节2< br/> 1.1神经网络的数学基础2< br/> 1.1.1线性代数2< br/> 1.1.2概率介绍6< br/> 1.1.3微分学16< br/> 1.2神经网络的简单介绍18< br/> 1.2.1神经元18< br/> 1.2.2层的运算19< br/> 1.2.3神经网络21< br/> 1.2.4激活函数22< br/> 1.2.5通用逼近定理25< br/> 1.3训练神经网络27< br/> 1.3.1梯度下降27< br/> 1.3.2代价函数28< br/> 1.3.3反向传播30< br/> 1.3.4权重初始化32< br/> 1.3.5SGD改进33< br/> 1.4总结35< br/> 第二部分计算机视觉< br/> 第2章理解卷积网络38< br/> 2.1理解CNN38< br/> 2.1.1卷积类型43< br/> 2.1.2提高CNN的效率46< br/> 2.1.3可视化CNN51< br/> 2.1.4CNN正则化54< br/> 2.2迁移学习介绍56< br/> 2.2.1使用PyTorch实现迁移学习57< br/> 2.2.2使用TensorFlow 2.0实现迁移学习62< br/> 2.3总结66< br/> 第3章高级卷积网络67< br/> 3.1AlexNet介绍67< br/> 3.2VGG介绍68< br/> 3.3理解残差网络70< br/> 3.4理解Inception网络78< br/> 3.4.1Inception v179< br/> 3.4.2Inception v2和v380< br/> 3.4.3Inception v4和InceptionResNet81< br/> 3.5Xception介绍82< br/> 3.6MobileNet介绍83< br/> 3.7DenseNet介绍85< br/> 3.8神经架构搜索的工作原理87< br/> 3.9胶囊网络介绍91< br/> 3.9.1卷积网络的局限性91< br/> 3.9.2胶囊92< br/> 3.9.3胶囊网络的结构94< br/> 3.10总结95< br/> 第4章对象检测与图像分割96< br/> 4.1对象检测介绍96< br/> 4.1.1对象检测的方法96< br/> 4.1.2使用YOLO v3进行对象检测98< br/> 4.1.3使用Faster RCNN进行对象检测104< br/> 4.2图像分割介绍110< br/> 4.2.1使用UNet进行语义分割110< br/> 4.2.2使用Mask RCNN进行实例分割112< br/> 4.3总结115< br/> 第5章生成模型116< br/> 5.1生成模型的直觉和证明116< br/> 5.2VAE介绍117< br/> 5.3GAN介绍124< br/> 5.3.1训练GAN125< br/> 5.3.2实现GAN128< br/> 5.3.3训练GAN的缺陷129< br/> 5.4GAN的类型129< br/> 5.4.1DCGAN130< br/> 5.4.2CGAN135< br/> 5.4.3WGAN137< br/> 5.4.4使用CycleGAN实现图像到图像的转换142< br/> 5.5艺术风格迁移介绍150< br/> 5.6总结151< br/> 第三部分自然语言和序列处理< br/> 第6章语言建模154< br/> 6.1理解ngram154< br/> 6.2神经语言模型介绍156< br/> 6.2.1神经概率语言模型157< br/> 6.2.2word2vec158< br/> 6.2.3GloVe模型161< br/> 6.3实现语言模型164< br/> 6.3.1训练嵌入模型164< br/> 6.3.2可视化嵌入向量166< br/> 6.4总结169< br/> 第7章理解RNN170< br/> 7.1RNN介绍170< br/> 7.2长短期记忆介绍180< br/> 7.3门控循环单元介绍187< br/> 7.4实现文本分类189< br/> 7.5总结193< br/> 第8章seq2seq模型和注意力机制194< br/> 8.1seq2seq模型介绍194< br/> 8.2使用注意力的seq2seq196< br/> 8.2.1Bahdanau Attention196< br/> 8.2.2Luong Attention199< br/> 8.2.3一般注意力200< br/> 8.2.4使用注意力实现seq2seq201< br/> 8.3理解transformer207< br/> 8.3.1transformer注意力207< br/> 8.3.2transformer模型210< br/> 8.3.3实现transformer212< br/> 8.4transformer语言模型219< br/> 8.4.1基于transformer的双向编码器表示219< br/> 8.4.2transformerXL224< br/> 8.4.3XLNet227< br/> 8.4.4使用transformer语言模型生成文本230< br/> 8.5总结231< br/> 第四部分展望未来< br/> 第9章新兴的神经网络设计234< br/> 9.1GNN介绍234< br/> 9.1.1循环GNN236< br/> 9.1.2卷积图神经网络238< br/> 9.1.3图自编码器244< br/> 9.1.4神经图学习246< br/> 9.2记忆增强神经网络介绍251< br/> 9.2.1神经图灵机251< br/> 9.2.2MANN*256< br/> 9.3总结257< br/> 第10章元学习258< br/> 10.1元学习介绍258< br/> 10.1.1零样本学习259< br/> 10.1.2单样本学习260< br/> 10.1.3元训练和元测试261< br/> 10.2基于度量的元学习262< br/> 10.2.1为单样本学习匹配网络263< br/> 10.2.2孪生网络264< br/> 10.2.3原型网络267< br/> 10.3基于优化的元学习269< br/> 10.4总结274< br/> 第11章自动驾驶汽车的深度学习275< br/> 11.1自动驾驶汽车介绍275< br/> 11.1.1自动驾驶汽车研究简史275< br/> 11.1.2自动化的级别277< br/> 11.2自动驾驶汽车系统的组件278< br/> 11.2.1环境感知280< br/> 11.2.2路径规划282< br/> 11.33D数据处理介绍282< br/> 11.4模仿驾驶策略285< br/> 11.5ChauffeurNet驾驶策略294< br/> 11.5.1输入/输出表示294< br/> 11.5.2模型架构296< br/> 11.5.3训练297< br/> 11.6总结300
— 没有更多了 —
以下为对购买帮助不大的评价