AIGC原理与实践:零基础学大语言模型、扩散模型和多模态模型
全新正版 极速发货
¥
72.07
5.6折
¥
129
全新
库存19件
作者吴茂贵
出版社机械工业出版社
ISBN9787111753315
出版时间2024-06
装帧平装
开本16开
定价129元
货号1203300887
上书时间2024-09-05
商品详情
- 品相描述:全新
- 商品描述
-
目录
CONTENTS<br />目 录<br />前言<br />第1章 AIGC概述1<br />1.1 AIGC的主要技术1<br />1.1.1 语言生成方面的技术2<br />1.1.2 视觉生成方面的技术3<br />1.1.3 多模态方面的技术3<br />1.2 生成模型与判别模型4<br />1.2.1 生成模型4<br />1.2.2 判别模型5<br />1.3 生成模型的原理5<br />1.3.1 生成模型的框架6<br />1.3.2 生成模型的概率表示6<br />1.3.3 生成模型的目标函数7<br />1.3.4 生成模型的挑战及解决方法8<br />1.4 表示学习9<br />1.4.1 表示学习的直观理解10<br />1.4.2 表示学习的常用方式12<br />1.4.3 表示学习与特征工程的区别13<br />1.4.4 图像的表示学习13<br />1.4.5 文本的表示学习14<br />1.4.6 多模态的表示学习15<br />1.4.7 表示学习的融合技术16<br />1.4.8 如何衡量表示学习的优劣17<br />1.5 表示学习的逆过程18<br />第2章 深度神经网络21<br />2.1 用PyTorch构建深度神经网络21<br />2.1.1 神经网络的核心组件21<br />2.1.2 构建神经网络的主要工具22<br />2.1.3 构建模型24<br />2.1.4 训练模型24<br />2.2 用PyTorch实现神经网络实例25<br />2.2.1 准备数据26<br />2.2.2 可视化源数据27<br />2.2.3 构建模型28<br />2.2.4 训练模型29<br />2.3 用PyTorch Lightning实现神经网络实例31<br />2.4 构建卷积神经网络35<br />2.4.1 全连接层36<br />2.4.2 卷积层36<br />2.4.3 卷积核39<br />2.4.4 步幅42<br />2.4.5 填充43<br />2.4.6 多通道上的卷积43<br />2.4.7 激活函数48<br />2.4.8 卷积函数48<br />2.4.9 转置卷积50<br />2.4.10 特征图与感受野53<br />2.4.11 卷积层如何保留图像的空间信息53<br />2.4.12 现代经典网络54<br />2.4.13 可变形卷积59<br />2.5 构建循环神经网络60<br />2.5.1 从神经网络到有隐含状态的循环神经网络60<br />2.5.2 使用循环神经网络构建语言模型62<br />2.5.3 多层循环神经网络63<br />2.5.4 现代经典循环神经网络63<br />2.6 迁移学习64<br />2.6.1 迁移学习简介65<br />2.6.2 微调预训练模型65<br />2.7 深度学习常用的归一化方法68<br />2.7.1 归一化方法简介68<br />2.7.2 归一化的原理70<br />2.7.3 归一化的代码实现72<br />2.8 权重初始化77<br />2.8.1 为何要进行权重初始化77<br />2.8.2 权重初始化方法78<br />2.9 PyTorch常用的损失函数79<br />2.10 深度学习常用的优化算法80<br />2.10.1 传统梯度更新算法80<br />2.10.2 批量随机梯度下降法82<br />2.10.3 动量算法83<br />2.10.4 Nesterov动量算法85<br />2.10.5 AdaGrad算法87<br />2.10.6 RMSProp算法89<br />2.10.7 Adam算法90<br />2.10.8 各种优化算法比较92<br />第3章 变分自编码器94<br />3.1 自编码器简介94<br />3.1.1 构建自编码器95<br />3.1.2 构建编码器96<br />3.1.3 构建解码器97<br />3.1.4 定义损失函数及优化器98<br />3.1.5 分析自编码器98<br />3.2 变分自编码器简介100<br />3.2.1 变分自编码器的直观理解100<br />3.2.2 变分自编码器的原理102<br />3.3 构建变分自编码器105<br />3.3.1 构建编码器106<br />3.3.2 构建解码器107<br />3.3.3 损失函数 108<br />3.3.4 分析变分自编码器109<br />3.4 使用变分自编码器生成面部图像110<br />3.4.1 编码器111<br />3.4.2 解码器111<br />3.4.3 进一步分析变分自编码器112<br />3.4.4 生成新头像113<br />第4章 生成对抗网络114<br />4.1 GAN模型简介114<br />4.1.1 GAN的直观理解114<br />4.1.2 GAN的原理115<br />4.1.3 GAN的训练过程116<br />4.2 用GAN从零开始生成图像117<br />4.2.1 判别器117<br />4.2.2 生成器117<br />4.2.3 损失函数118<br />4.2.4 训练模型118<br />4.2.5 可视化结果120<br />4.3 GAN面临的问题121<br />4.3.1 损失振荡121<br />4.3.2 模型坍塌的简单实例122<br />4.3.3 GAN模型坍塌的原因123<br />4.3.4 避免GAN模型坍塌的方法124<br />4.4 WGAN125<br />4.4.1 改进方向和效果125<br />4.4.2 Wasserstein距离的优越性127<br />4.4.3 WGAN的损失函数代码127<br />4.4.4 WGAN的其他核心代码128<br />4.5 WGAN-GP129<br />4.5.1 权重裁剪的隐患129<br />4.5.2 梯度惩罚损失130<br />4.5.3 WGAN-GP的训练过程131<br />4.5.4 WGAN-GP的损失函数代码132<br />第5章 StyleGAN模型134<br />5.1 ProGAN简介135<br />5.2 StyleGAN架构137<br />5.3 StyleGAN的其他算法140<br />5.4 用PyTorch从零开始实现StyleGAN141<br />5.4.1 构建生成网络141<br />5.4.2 构建判别器网络147<br />5.4.3 损失函数150<br />5.5 StyleGAN的近期新进展151<br />5.5.1 StyleGAN2简介151<br />5.5.2 StyleGAN3简介152<br />5.5.3 StyleGAN与DeepDream模型的异同153<br />5.6 DragGAN简介153<br />第6章 风格迁移154<br />6.1 DeepDream模型154<br />6.1.1 DeepDream的原理154<br />6.1.2 DeepDream算法的流程155<br />6.1.3 使用PyTorch实现DeepDream156<br />6.2 普通风格迁移159<br />6.2.1 内容损失160<br />6.2.2 风格损失161<br />6.2.3 使用PyTorch实现神经网络风格迁移163<br />6.3 使用PyTorch实现图像修复167<br />6.3.1 网络结构167<br />6.3.2 损失函数168<br />6.3.3 图像修复实例169<br />6.4 风格迁移与StyleGAN模型171<br />第7章 注意力机制173<br />7.1 注意力机制简介173<br />7.1.1 两种常见的注意力机制174<br />7.1.2 来自生活的注意力174<br />7.1.3 注意力机制的本质175<br />7.2 带注意力机制的编码器-解码器架构177<br />7.2.1 引入注意力机制178<br />7.2.2 计算注意力分配概率分布值180<br />7.3 自注意力182<br />7.3.1 单层自注意力182<br />7.3.2 多层自注意力185<br />7.3.3 多头自注意力186<br />7.3.4 自注意力与卷积网络、循环网络的比较189<br />7.4 如何训练含自注意力的模型190<br />7.4.1 将标记向量化191<br />7.4.2 添加位置编码191<br />7.4.3 逆嵌入过程192<br />7.5 交叉注意力192<br />7.5.1 Transformer解码器中的交叉注意力193<br />7.5.2 Stable Diffusion解码器中的交叉注意力193<br />7.5.3 交叉注意力与自注意力的异同194<br />第8章 Transformer模型196<br />8.1 Transformer模型的直观理解196<br />8.1.1 顶层设计197<br />8.1.2 嵌入和向量化199<br />8.1.3 位置编码200<br />8.1.4 自注意力201<br />8.1.5 掩码205<br />8.1.6 多头注意力205<br />8.1.7 残差连接207<br />8.1.8 层归一化209<br />8.1.9 解码器的输出210<br />8.1.10 多层叠加211<br />8.2 用PyTorch从零开始实现Transformer212<br />8.2.1 构建编码器-解码器架构212<br />8.2.2 构建编码器213<br />8.2.3 构建解码器215<br />8.2.4 构建多头注意力217<br />8.2.5 构建前馈神经网络层220<br />8.2.6 预处理输入数据220<br />8.2.7 构建完整网络223<br />8.2.8 训练模型224<br />8.2.9 一个简单实例228<br />第9章 大语言模型231<br />9.1 大语言模型简介231<br />9.2 可视化GPT原理233<br />9.2.1 GPT简介233<br />9.2.2 GPT的整体架构233<br />9.2.3 GPT模型架构234<br />9.2.4 GPT-2与BERT的多头注意力的区别235<br />9.2.5 GPT-2的输入235<br />9.2.6 GPT-2 计算遮掩自注意力的详细过程236<br />9.2.7 GPT-2的输出238<br />9.2.8 GPT-1与GPT-2的异同238<br />9.3 GPT-3简介239<br />9.4 可视化BERT原理241<br />9.4.1 BERT的整体架构241<br />9.4.2 BERT的输入243<br />9.4.3 遮掩语言模型244<br />9.4.4 预测下一个句子245<br />9.4.5 微调245<br />9.4.6 使用特征提取方法247<br />9.5 用PyTorch实现BERT248<br />9.5.1 BERTEmbedding类的代码248<br />9.5.2 TransformerBlock类的代码249<br />9.5.3 构建BERT的代码250<br />9.6 用GPT-2生成文本251<br />9.6.1 下载GPT-2预训练模型251<br />9.6.2 用贪心搜索进行解码253<br />9.6.3 用束搜索进行解码254<br />9.6.4 用采样进行解码256<br />9.6.5 用Top-K采样进行解码258<br />9.6.6 用Top-p采样进行解码260<br />9.6.7 用综合方法进行解码261<br />第10章 ChatGPT模型263<br />10.1 ChatGPT简介263<br />10.1.1 ChatGPT核心技术264<br />10.1.2 InstructGPT和ChatGPT的训练过程265<br />10.1.3 指令微调267<br />10.1.4 Chat
— 没有更多了 —
以下为对购买帮助不大的评价