• AIGC原理与实践:零基础学大语言模型、扩散模型和多模态模型9787111753315
21年品牌 40万+商家 超1.5亿件商品

AIGC原理与实践:零基础学大语言模型、扩散模型和多模态模型9787111753315

正版图书,可开发票,请放心购买。

96.75 7.5折 129 全新

库存72件

广东广州
认证卖家担保交易快速发货售后保障

作者吴茂贵著

出版社机械工业出版社

ISBN9787111753315

出版时间2024-06

装帧平装

开本16开

定价129元

货号16605359

上书时间2024-09-13

亿临书店

四年老店
已实名 已认证 进店 收藏店铺

   商品详情   

品相描述:全新
商品描述
目录
CONTENTS<br />目    录<br />前言<br />第1章  AIGC概述1<br />1.1  AIGC的主要技术1<br />1.1.1  语言生成方面的技术2<br />1.1.2  视觉生成方面的技术3<br />1.1.3  多模态方面的技术3<br />1.2  生成模型与判别模型4<br />1.2.1  生成模型4<br />1.2.2  判别模型5<br />1.3  生成模型的原理5<br />1.3.1  生成模型的框架6<br />1.3.2  生成模型的概率表示6<br />1.3.3  生成模型的目标函数7<br />1.3.4  生成模型的挑战及解决方法8<br />1.4  表示学习9<br />1.4.1  表示学习的直观理解10<br />1.4.2  表示学习的常用方式12<br />1.4.3  表示学习与特征工程的区别13<br />1.4.4  图像的表示学习13<br />1.4.5  文本的表示学习14<br />1.4.6  多模态的表示学习15<br />1.4.7  表示学习的融合技术16<br />1.4.8  如何衡量表示学习的优劣17<br />1.5  表示学习的逆过程18<br />第2章  深度神经网络21<br />2.1  用PyTorch构建深度神经网络21<br />2.1.1  神经网络的核心组件21<br />2.1.2  构建神经网络的主要工具22<br />2.1.3  构建模型24<br />2.1.4  训练模型24<br />2.2  用PyTorch实现神经网络实例25<br />2.2.1  准备数据26<br />2.2.2  可视化源数据27<br />2.2.3  构建模型28<br />2.2.4  训练模型29<br />2.3  用PyTorch Lightning实现神经网络实例31<br />2.4  构建卷积神经网络35<br />2.4.1  全连接层36<br />2.4.2  卷积层36<br />2.4.3  卷积核39<br />2.4.4  步幅42<br />2.4.5  填充43<br />2.4.6  多通道上的卷积43<br />2.4.7  激活函数48<br />2.4.8  卷积函数48<br />2.4.9  转置卷积50<br />2.4.10  特征图与感受野53<br />2.4.11  卷积层如何保留图像的空间信息53<br />2.4.12  现代经典网络54<br />2.4.13  可变形卷积59<br />2.5  构建循环神经网络60<br />2.5.1  从神经网络到有隐含状态的循环神经网络60<br />2.5.2  使用循环神经网络构建语言模型62<br />2.5.3  多层循环神经网络63<br />2.5.4  现代经典循环神经网络63<br />2.6  迁移学习64<br />2.6.1  迁移学习简介65<br />2.6.2  微调预训练模型65<br />2.7  深度学习常用的归一化方法68<br />2.7.1  归一化方法简介68<br />2.7.2  归一化的原理70<br />2.7.3  归一化的代码实现72<br />2.8  权重初始化77<br />2.8.1  为何要进行权重初始化77<br />2.8.2  权重初始化方法78<br />2.9  PyTorch常用的损失函数79<br />2.10  深度学习常用的优化算法80<br />2.10.1  传统梯度更新算法80<br />2.10.2  批量随机梯度下降法82<br />2.10.3  动量算法83<br />2.10.4  Nesterov动量算法85<br />2.10.5  AdaGrad算法87<br />2.10.6  RMSProp算法89<br />2.10.7  Adam算法90<br />2.10.8  各种优化算法比较92<br />第3章  变分自编码器94<br />3.1  自编码器简介94<br />3.1.1  构建自编码器95<br />3.1.2  构建编码器96<br />3.1.3  构建解码器97<br />3.1.4  定义损失函数及优化器98<br />3.1.5  分析自编码器98<br />3.2  变分自编码器简介100<br />3.2.1  变分自编码器的直观理解100<br />3.2.2  变分自编码器的原理102<br />3.3  构建变分自编码器105<br />3.3.1  构建编码器106<br />3.3.2  构建解码器107<br />3.3.3  损失函数 108<br />3.3.4  分析变分自编码器109<br />3.4  使用变分自编码器生成面部图像110<br />3.4.1  编码器111<br />3.4.2  解码器111<br />3.4.3  进一步分析变分自编码器112<br />3.4.4  生成新头像113<br />第4章  生成对抗网络114<br />4.1  GAN模型简介114<br />4.1.1  GAN的直观理解114<br />4.1.2  GAN的原理115<br />4.1.3  GAN的训练过程116<br />4.2  用GAN从零开始生成图像117<br />4.2.1  判别器117<br />4.2.2  生成器117<br />4.2.3  损失函数118<br />4.2.4  训练模型118<br />4.2.5  可视化结果120<br />4.3  GAN面临的问题121<br />4.3.1  损失振荡121<br />4.3.2  模型坍塌的简单实例122<br />4.3.3  GAN模型坍塌的原因123<br />4.3.4  避免GAN模型坍塌的方法124<br />4.4  WGAN125<br />4.4.1  改进方向和效果125<br />4.4.2  Wasserstein距离的优越性127<br />4.4.3  WGAN的损失函数代码127<br />4.4.4  WGAN的其他核心代码128<br />4.5  WGAN-GP129<br />4.5.1  权重裁剪的隐患129<br />4.5.2  梯度惩罚损失130<br />4.5.3  WGAN-GP的训练过程131<br />4.5.4  WGAN-GP的损失函数代码132<br />第5章  StyleGAN模型134<br />5.1  ProGAN简介135<br />5.2  StyleGAN架构137<br />5.3  StyleGAN的其他算法140<br />5.4  用PyTorch从零开始实现StyleGAN141<br />5.4.1  构建生成网络141<br />5.4.2  构建判别器网络147<br />5.4.3  损失函数150<br />5.5  StyleGAN的近期新进展151<br />5.5.1  StyleGAN2简介151<br />5.5.2  StyleGAN3简介152<br />5.5.3  StyleGAN与DeepDream模型的异同153<br />5.6  DragGAN简介153<br />第6章  风格迁移154<br />6.1  DeepDream模型154<br />6.1.1  DeepDream的原理154<br />6.1.2  DeepDream算法的流程155<br />6.1.3  使用PyTorch实现DeepDream156<br />6.2  普通风格迁移159<br />6.2.1  内容损失160<br />6.2.2  风格损失161<br />6.2.3  使用PyTorch实现神经网络风格迁移163<br />6.3  使用PyTorch实现图像修复167<br />6.3.1  网络结构167<br />6.3.2  损失函数168<br />6.3.3  图像修复实例169<br />6.4  风格迁移与StyleGAN模型171<br />第7章  注意力机制173<br />7.1  注意力机制简介173<br />7.1.1  两种常见的注意力机制174<br />7.1.2  来自生活的注意力174<br />7.1.3  注意力机制的本质175<br />7.2  带注意力机制的编码器-解码器架构177<br />7.2.1  引入注意力机制178<br />7.2.2  计算注意力分配概率分布值180<br />7.3  自注意力182<br />7.3.1  单层自注意力182<br />7.3.2  多层自注意力185<br />7.3.3  多头自注意力186<br />7.3.4  自注意力与卷积网络、循环网络的比较189<br />7.4  如何训练含自注意力的模型190<br />7.4.1  将标记向量化191<br />7.4.2  添加位置编码191<br />7.4.3  逆嵌入过程192<br />7.5  交叉注意力192<br />7.5.1  Transformer解码器中的交叉注意力193<br />7.5.2  Stable Diffusion解码器中的交叉注意力193<br />7.5.3  交叉注意力与自注意力的异同194<br />第8章  Transformer模型196<br />8.1  Transformer模型的直观理解196<br />8.1.1  顶层设计197<br />8.1.2  嵌入和向量化199<br />8.1.3  位置编码200<br />8.1.4  自注意力201<br />8.1.5  掩码205<br />8.1.6  多头注意力205<br />8.1.7  残差连接207<br />8.1.8  层归一化209<br />8.1.9  解码器的输出210<br />8.1.10  多层叠加211<br />8.2  用PyTorch从零开始实现Transformer212<br />8.2.1  构建编码器-解码器架构212<br />8.2.2  构建编码器213<br />8.2.3  构建解码器215<br />8.2.4  构建多头注意力217<br />8.2.5  构建前馈神经网络层220<br />8.2.6  预处理输入数据220<br />8.2.7  构建完整网络223<br />8.2.8  训练模型224<br />8.2.9  一个简单实例228<br />第9章  大语言模型231<br />9.1  大语言模型简介231<br />9.2  可视化GPT原理233<br />9.2.1  GPT简介233<br />9.2.2  GPT的整体架构233<br />9.2.3  GPT模型架构234<br />9.2.4  GPT-2与BERT的多头注意力的区别235<br />9.2.5  GPT-2的输入235<br />9.2.6  GPT-2 计算遮掩自注意力的详细过程236<br />9.2.7  GPT-2的输出238<br />9.2.8  GPT-1与GPT-2的异同238<br />9.3  GPT-3简介239<br />9.4  可视化BERT原理241<br />9.4.1  BERT的整体架构241<br />9.4.2  BERT的输入243<br />9.4.3  遮掩语言模型244<br />9.4.4  预测下一个句子245<br />9.4.5  微调245<br />9.4.6  使用特征提取方法247<br />9.5  用PyTorch实现BERT248<br />9.5.1  BERTEmbedding类的代码248<br />9.5.2  TransformerBlock类的代码249<br />9.5.3  构建BERT的代码250<br />9.6  用GPT-2生成文本251<br />9.6.1  下载GPT-2预训练模型251<br />9.6.2  用贪心搜索进行解码253<br />9.6.3  用束搜索进行解码254<br />9.6.4  用采样进行解码256<br />9.6.5  用Top-K采样进行解码258<br />9.6.6  用Top-p采样进行解码260<br />9.6.7  用综合方法进行解码261<br />第10章  ChatGPT模型263<br />10.1  ChatGPT简介263<br />10.1.1  ChatGPT核心技术264<br />10.1.2  InstructGPT和ChatGPT的训练过程265<br />10.1.3  指令微调267<br />10.1.4  Chat

—  没有更多了  —

以下为对购买帮助不大的评价

此功能需要访问孔网APP才能使用
暂时不用
打开孔网APP