• Python深度学习:基于PyTorch
21年品牌 40万+商家 超1.5亿件商品

Python深度学习:基于PyTorch

正版保障 假一赔十 可开发票

71.94 6.6折 109 全新

库存124件

广东广州
认证卖家担保交易快速发货售后保障

作者吴茂贵 郁明敏 杨本法 李涛 等著

出版社机械工业出版社

ISBN9787111718802

出版时间2022-11

装帧平装

开本16开

定价109元

货号12123001

上书时间2024-08-27

灵感书店

三年老店
已实名 已认证 进店 收藏店铺

   商品详情   

品相描述:全新
商品描述
目录
前言<br />第1版前言<br />第一部分  PyTorch基础<br />第1章  NumPy基础知识2<br />1.1  生成NumPy数组3<br />1.1.1  数组属性4<br />1.1.2  利用已有数据生成数组4<br />1.1.3  利用 random 模块生成数组5<br />1.1.4  生成特定形状的多维数组7<br />1.1.5  利用arange、linspace <br />    函数生成数组8<br />1.2  读取数据9<br />1.3  NumPy的算术运算11<br />1.3.1  逐元素操作11<br />1.3.2  点积运算12<br />1.4  数组变形13<br />1.4.1  修改数组的形状13<br />1.4.2  合并数组16<br />1.5  批处理19<br />1.6  节省内存20<br />1.7  通用函数21<br />1.8  广播机制23<br />1.9  小结24<br />第2章  PyTorch基础知识25<br />2.1  为何选择PyTorch25<br />2.2  PyTorch的安装配置26<br />2.2.1  安装CPU版PyTorch26<br />2.2.2  安装GPU版PyTorch28<br />2.3  Jupyter Notebook环境配置30<br />2.4  NumPy与Tensor31<br />2.4.1  Tensor概述31<br />2.4.2  创建Tensor32<br />2.4.3  修改Tensor形状34<br />2.4.4  索引操作35<br />2.4.5  广播机制35<br />2.4.6  逐元素操作36<br />2.4.7  归并操作37<br />2.4.8  比较操作37<br />2.4.9  矩阵操作38<br />2.4.10  PyTorch与NumPy比较39<br />2.5  Tensor与autograd39<br />2.5.1  自动求导要点40<br />2.5.2  计算图40<br />2.5.3  标量反向传播41<br />2.5.4  非标量反向传播42<br />2.5.5  切断一些分支的反向传播45<br />2.6  使用NumPy实现机器学习任务47<br />2.7  使用Tensor及autograd实现机器<br />    学习任务49<br />2.8  使用优化器及自动微分实现机器<br />    学习任务51<br />2.9  把数据集转换为带批量处理功能的<br />    迭代器52<br />2.10  使用TensorFlow 2实现机器<br />    学习任务54<br />2.11  小结55<br />第3章  PyTorch神经网络工具箱56<br />3.1  神经网络核心组件56<br />3.2  构建神经网络的主要工具57<br />3.2.1  nn.Module57<br />3.2.2  nn.functional58<br />3.3  构建模型59<br />3.3.1  继承nn.Module基类构建模型59<br />3.3.2  使用nn.Sequential按层<br />    顺序构建模型60<br />3.3.3  继承nn.Module基类并应用<br />    模型容器来构建模型63<br />3.3.4  自定义网络模块66<br />3.4  训练模型68<br />3.5  实现神经网络实例69<br />3.5.1  背景说明69<br />3.5.2  准备数据70<br />3.5.3  可视化源数据71<br />3.5.4  构建模型72<br />3.5.5  训练模型72<br />3.6  小结74<br />第4章  PyTorch数据处理工具箱75<br />4.1  数据处理工具箱概述75<br />4.2  utils.data76<br />4.3  torchvision78<br />4.3.1  transforms78<br />4.3.2  ImageFolder79<br />4.4  可视化工具81<br />4.4.1  TensorBoard简介81<br />4.4.2  用TensorBoard可视化<br />    神经网络82<br />4.4.3  用TensorBoard可视化损失值83<br />4.4.4  用TensorBoard可视化特征图84<br />4.5  小结85<br />第二部分  深度学习基础<br />第5 章  机器学习基础88<br />5.1  机器学习的基本任务88<br />5.1.1  监督学习89<br />5.1.2  无监督学习89<br />5.1.3  半监督学习90<br />5.1.4  强化学习90<br />5.2  机器学习的一般流程90<br />5.2.1  明确目标91<br />5.2.2  收集数据91<br />5.2.3  数据探索与预处理91<br />5.2.4  选择模型及损失函数91<br />5.2.5  评估及优化模型92<br />5.3  过拟合与欠拟合93<br />5.3.1  权重正则化93<br />5.3.2  dropout正则化94<br />5.3.3  批量归一化97<br />5.3.4  层归一化99<br />5.3.5  权重初始化99<br />5.4  选择合适的激活函数100<br />5.5  选择合适的损失函数101<br />5.6  选择合适的优化器103<br />5.6.1  传统梯度优化算法104<br />5.6.2  批量随机梯度下降法105<br />5.6.3  动量算法106<br />5.6.4  Nesterov动量算法108<br />5.6.5  AdaGrad算法109<br />5.6.6  RMSProp算法111<br />5.6.7  Adam算法112<br />5.6.8  Yogi算法113<br />5.6.9  使用优化算法实例114<br />5.7  GPU加速116<br />5.7.1  单GPU加速116<br />5.7.2  多GPU加速117<br />5.7.3  使用GPU时的注意事项120<br />5.8  小结121<br />第6章  视觉处理基础122<br />6.1  从全连接层到卷积层122<br />6.1.1  图像的两个特性123<br />6.1.2  卷积神经网络概述124<br />6.2  卷积层125<br />6.2.1  卷积核127<br />6.2.2  步幅129<br />6.2.3  填充130<br />6.2.4  多通道上的卷积131<br />6.2.5  激活函数134<br />6.2.6  卷积函数135<br />6.2.7  转置卷积136<br />6.2.8  特征图与感受野137<br />6.2.9  全卷积网络138<br />6.3  池化层139<br />6.3.1  局部池化140<br />6.3.2  全局池化140<br />6.4  现代经典网络142<br />6.4.1  LeNet-5模型142<br />6.4.2  AlexNet模型143<br />6.4.3  VGG模型143<br />6.4.4  GoogLeNet模型144<br />6.4.5  ResNet模型145<br />6.4.6  DenseNet模型146<br />6.4.7  CapsNet模型148<br />6.5  使用卷积神经网络实现CIFAR10<br />    多分类149<br />6.5.1  数据集说明149<br />6.5.2  加载数据149<br />6.5.3  构建网络151<br />6.5.4  训练模型151<br />6.5.5  测试模型152<br />6.5.6  采用全局平均池化153<br />6.5.7  像Keras一样显示各层参数154<br />6.6  使用模型集成方法提升性能156<br />6.6.1  使用模型156<br />6.6.2  集成方法157<br />6.6.3  集成效果158<br />6.7  使用现代经典模型提升性能158<br />6.8  小结159<br />第7章  自然语言处理基础160<br />7.1  从语言模型到循环神经网络160<br />7.1.1  链式法则161<br />7.1.2  马可夫假设与N元语法模型161<br />7.1.3  从N元语法模型到隐含<br />    状态表示161<br />7.1.4  从神经网络到有隐含状态的<br />    循环神经网络162<br />7.1.5  使用循环神经网络构建<br />    语言模型164<br />7.1.6  多层循环神经网络164<br />7.2  正向传播与随时间反向传播165<br />7.3  现代循环神经网络167<br />7.3.1  LSTM168<br />7.3.2  GRU169<br />7.3.3  Bi-RNN169<br />7.4  循环神经网络的PyTorch实现170<br />7.4.1  使用PyTorch实现RNN170<br />7.4.2  使用PyTorch实现LSTM172<br />7.4.3  使用PyTorch实现GRU174<br />7.5  文本数据处理175<br />7.6  词嵌入176<br />7.6.1  Word2Vec原理177<br />7.6.2  CBOW模型177<br />7.6.3  Skip-Gram模型178<br />7.7  使用PyTorch实现词性判别179<br />7.7.1  词性判别的主要步骤179<br />7.7.2  数据预处理180<br />7.7.3  构建网络180<br />7.7.4  训练网络181<br />7.7.5  测试模型182<br />7.8  用LSTM预测股票行情183<br />7.8.1  导入数据183<br />7.8.2  数据概览183<br />7.8.3  预处理数据184<br />7.8.4  定义模型185<br />7.8.5  训练模型185<br />7.8.6  测试模型186<br />7.9  几种特殊架构187<br />7.9.1  编码器-解码器架构187<br />7.9.2  Seq2Seq架构189<br />7.10  循环神经网络应用场景189<br />7.11  小结190<br />第8章  注意力机制191<br />8.1  注意力机制概述191<br />8.1.1  两种常见注意力机制192<br />8.1.2  来自生活的注意力192<br />8.1.3  注意力机制的本质192<br />8.2  带注意力机制的编码器-解码器架构194<br />8.2.1  引入注意力机制194<br />8.2.2  计算注意力分配概率分布值196<br />8.3  Transformer198<br />8.3.1  Transformer的顶层设计198<br />8.3.2  编码器与解码器的输入200<br />8.3.3  自注意力200<br />8.3.4  多头注意力203<br />8.3.5  自注意力与循环神经网络、<br />    卷积神经网络的异同204<br />8.3.6  加深Transformer网络层的<br />    几种方法205<br />8.3.7  如何进行自监督学习205<br />8.3.8  Vision Transformer207<br />8.3.9  Swin Transformer208<br />8.4  使用PyTorch实现Transformer213<br />8.4.1  Transformer背景介绍214<br />8.4.2  构建EncoderDecoder214<br />8.4.3  构建编码器215<br />8.4.4  构建

—  没有更多了  —

以下为对购买帮助不大的评价

此功能需要访问孔网APP才能使用
暂时不用
打开孔网APP