Python深度学习:基于PyTorch
正版保障 假一赔十 可开发票
¥
71.94
6.6折
¥
109
全新
库存124件
作者吴茂贵 郁明敏 杨本法 李涛 等著
出版社机械工业出版社
ISBN9787111718802
出版时间2022-11
装帧平装
开本16开
定价109元
货号12123001
上书时间2024-08-27
商品详情
- 品相描述:全新
- 商品描述
-
目录
前言<br />第1版前言<br />第一部分 PyTorch基础<br />第1章 NumPy基础知识2<br />1.1 生成NumPy数组3<br />1.1.1 数组属性4<br />1.1.2 利用已有数据生成数组4<br />1.1.3 利用 random 模块生成数组5<br />1.1.4 生成特定形状的多维数组7<br />1.1.5 利用arange、linspace <br /> 函数生成数组8<br />1.2 读取数据9<br />1.3 NumPy的算术运算11<br />1.3.1 逐元素操作11<br />1.3.2 点积运算12<br />1.4 数组变形13<br />1.4.1 修改数组的形状13<br />1.4.2 合并数组16<br />1.5 批处理19<br />1.6 节省内存20<br />1.7 通用函数21<br />1.8 广播机制23<br />1.9 小结24<br />第2章 PyTorch基础知识25<br />2.1 为何选择PyTorch25<br />2.2 PyTorch的安装配置26<br />2.2.1 安装CPU版PyTorch26<br />2.2.2 安装GPU版PyTorch28<br />2.3 Jupyter Notebook环境配置30<br />2.4 NumPy与Tensor31<br />2.4.1 Tensor概述31<br />2.4.2 创建Tensor32<br />2.4.3 修改Tensor形状34<br />2.4.4 索引操作35<br />2.4.5 广播机制35<br />2.4.6 逐元素操作36<br />2.4.7 归并操作37<br />2.4.8 比较操作37<br />2.4.9 矩阵操作38<br />2.4.10 PyTorch与NumPy比较39<br />2.5 Tensor与autograd39<br />2.5.1 自动求导要点40<br />2.5.2 计算图40<br />2.5.3 标量反向传播41<br />2.5.4 非标量反向传播42<br />2.5.5 切断一些分支的反向传播45<br />2.6 使用NumPy实现机器学习任务47<br />2.7 使用Tensor及autograd实现机器<br /> 学习任务49<br />2.8 使用优化器及自动微分实现机器<br /> 学习任务51<br />2.9 把数据集转换为带批量处理功能的<br /> 迭代器52<br />2.10 使用TensorFlow 2实现机器<br /> 学习任务54<br />2.11 小结55<br />第3章 PyTorch神经网络工具箱56<br />3.1 神经网络核心组件56<br />3.2 构建神经网络的主要工具57<br />3.2.1 nn.Module57<br />3.2.2 nn.functional58<br />3.3 构建模型59<br />3.3.1 继承nn.Module基类构建模型59<br />3.3.2 使用nn.Sequential按层<br /> 顺序构建模型60<br />3.3.3 继承nn.Module基类并应用<br /> 模型容器来构建模型63<br />3.3.4 自定义网络模块66<br />3.4 训练模型68<br />3.5 实现神经网络实例69<br />3.5.1 背景说明69<br />3.5.2 准备数据70<br />3.5.3 可视化源数据71<br />3.5.4 构建模型72<br />3.5.5 训练模型72<br />3.6 小结74<br />第4章 PyTorch数据处理工具箱75<br />4.1 数据处理工具箱概述75<br />4.2 utils.data76<br />4.3 torchvision78<br />4.3.1 transforms78<br />4.3.2 ImageFolder79<br />4.4 可视化工具81<br />4.4.1 TensorBoard简介81<br />4.4.2 用TensorBoard可视化<br /> 神经网络82<br />4.4.3 用TensorBoard可视化损失值83<br />4.4.4 用TensorBoard可视化特征图84<br />4.5 小结85<br />第二部分 深度学习基础<br />第5 章 机器学习基础88<br />5.1 机器学习的基本任务88<br />5.1.1 监督学习89<br />5.1.2 无监督学习89<br />5.1.3 半监督学习90<br />5.1.4 强化学习90<br />5.2 机器学习的一般流程90<br />5.2.1 明确目标91<br />5.2.2 收集数据91<br />5.2.3 数据探索与预处理91<br />5.2.4 选择模型及损失函数91<br />5.2.5 评估及优化模型92<br />5.3 过拟合与欠拟合93<br />5.3.1 权重正则化93<br />5.3.2 dropout正则化94<br />5.3.3 批量归一化97<br />5.3.4 层归一化99<br />5.3.5 权重初始化99<br />5.4 选择合适的激活函数100<br />5.5 选择合适的损失函数101<br />5.6 选择合适的优化器103<br />5.6.1 传统梯度优化算法104<br />5.6.2 批量随机梯度下降法105<br />5.6.3 动量算法106<br />5.6.4 Nesterov动量算法108<br />5.6.5 AdaGrad算法109<br />5.6.6 RMSProp算法111<br />5.6.7 Adam算法112<br />5.6.8 Yogi算法113<br />5.6.9 使用优化算法实例114<br />5.7 GPU加速116<br />5.7.1 单GPU加速116<br />5.7.2 多GPU加速117<br />5.7.3 使用GPU时的注意事项120<br />5.8 小结121<br />第6章 视觉处理基础122<br />6.1 从全连接层到卷积层122<br />6.1.1 图像的两个特性123<br />6.1.2 卷积神经网络概述124<br />6.2 卷积层125<br />6.2.1 卷积核127<br />6.2.2 步幅129<br />6.2.3 填充130<br />6.2.4 多通道上的卷积131<br />6.2.5 激活函数134<br />6.2.6 卷积函数135<br />6.2.7 转置卷积136<br />6.2.8 特征图与感受野137<br />6.2.9 全卷积网络138<br />6.3 池化层139<br />6.3.1 局部池化140<br />6.3.2 全局池化140<br />6.4 现代经典网络142<br />6.4.1 LeNet-5模型142<br />6.4.2 AlexNet模型143<br />6.4.3 VGG模型143<br />6.4.4 GoogLeNet模型144<br />6.4.5 ResNet模型145<br />6.4.6 DenseNet模型146<br />6.4.7 CapsNet模型148<br />6.5 使用卷积神经网络实现CIFAR10<br /> 多分类149<br />6.5.1 数据集说明149<br />6.5.2 加载数据149<br />6.5.3 构建网络151<br />6.5.4 训练模型151<br />6.5.5 测试模型152<br />6.5.6 采用全局平均池化153<br />6.5.7 像Keras一样显示各层参数154<br />6.6 使用模型集成方法提升性能156<br />6.6.1 使用模型156<br />6.6.2 集成方法157<br />6.6.3 集成效果158<br />6.7 使用现代经典模型提升性能158<br />6.8 小结159<br />第7章 自然语言处理基础160<br />7.1 从语言模型到循环神经网络160<br />7.1.1 链式法则161<br />7.1.2 马可夫假设与N元语法模型161<br />7.1.3 从N元语法模型到隐含<br /> 状态表示161<br />7.1.4 从神经网络到有隐含状态的<br /> 循环神经网络162<br />7.1.5 使用循环神经网络构建<br /> 语言模型164<br />7.1.6 多层循环神经网络164<br />7.2 正向传播与随时间反向传播165<br />7.3 现代循环神经网络167<br />7.3.1 LSTM168<br />7.3.2 GRU169<br />7.3.3 Bi-RNN169<br />7.4 循环神经网络的PyTorch实现170<br />7.4.1 使用PyTorch实现RNN170<br />7.4.2 使用PyTorch实现LSTM172<br />7.4.3 使用PyTorch实现GRU174<br />7.5 文本数据处理175<br />7.6 词嵌入176<br />7.6.1 Word2Vec原理177<br />7.6.2 CBOW模型177<br />7.6.3 Skip-Gram模型178<br />7.7 使用PyTorch实现词性判别179<br />7.7.1 词性判别的主要步骤179<br />7.7.2 数据预处理180<br />7.7.3 构建网络180<br />7.7.4 训练网络181<br />7.7.5 测试模型182<br />7.8 用LSTM预测股票行情183<br />7.8.1 导入数据183<br />7.8.2 数据概览183<br />7.8.3 预处理数据184<br />7.8.4 定义模型185<br />7.8.5 训练模型185<br />7.8.6 测试模型186<br />7.9 几种特殊架构187<br />7.9.1 编码器-解码器架构187<br />7.9.2 Seq2Seq架构189<br />7.10 循环神经网络应用场景189<br />7.11 小结190<br />第8章 注意力机制191<br />8.1 注意力机制概述191<br />8.1.1 两种常见注意力机制192<br />8.1.2 来自生活的注意力192<br />8.1.3 注意力机制的本质192<br />8.2 带注意力机制的编码器-解码器架构194<br />8.2.1 引入注意力机制194<br />8.2.2 计算注意力分配概率分布值196<br />8.3 Transformer198<br />8.3.1 Transformer的顶层设计198<br />8.3.2 编码器与解码器的输入200<br />8.3.3 自注意力200<br />8.3.4 多头注意力203<br />8.3.5 自注意力与循环神经网络、<br /> 卷积神经网络的异同204<br />8.3.6 加深Transformer网络层的<br /> 几种方法205<br />8.3.7 如何进行自监督学习205<br />8.3.8 Vision Transformer207<br />8.3.9 Swin Transformer208<br />8.4 使用PyTorch实现Transformer213<br />8.4.1 Transformer背景介绍214<br />8.4.2 构建EncoderDecoder214<br />8.4.3 构建编码器215<br />8.4.4 构建
— 没有更多了 —
以下为对购买帮助不大的评价