• 深度强化学习
  • 深度强化学习
  • 深度强化学习
  • 深度强化学习
  • 深度强化学习
  • 深度强化学习
  • 深度强化学习
  • 深度强化学习
21年品牌 40万+商家 超1.5亿件商品

深度强化学习

66.8 5.1折 129.8 全新

库存87件

四川成都
认证卖家担保交易快速发货售后保障

作者王树森,黎彧君,张志华

出版社人民邮电出版社

ISBN9787115600691

出版时间2022-11

装帧平装

开本16开

定价129.8元

货号1202771568

上书时间2024-07-04

聚合博文书店

十年老店
已实名 已认证 进店 收藏店铺

   商品详情   

品相描述:全新
商品描述
作者简介
王树森
现任小红书基础模型团队负责人,从事搜索和推荐算法研发工作。从浙江大学获得计算机学士和博士学位,就读期间获得“微软学者”和“百度奖学金”等多项荣誉。在加入小红书之前,曾任美国加州大学伯克利分校博士后、美国史蒂文斯理工学院助理教授、博导。在机器学习、强化学习、数值计算、分布式计算等方向有多年科研经验,在计算机国际很好期刊和会议上发表30多篇论文。

在YouTube、B站开设“深度强化学习”“深度学习”“推荐系统”公开课(ID:Shusen Wang),所有渠道视频播放量100万次。

黎彧君 
华为诺亚方舟实验室高级研究员,主要从事AutoML相关的研发工作。上海交通大学博士,研究方向为数值优化、强化学习;攻读博士学位期间曾前往普林斯顿大学访问一年。共同翻译出版“花书”《深度学习》。

张志华  
北京大学数学科学学院教授。此前先后执教于浙江大学和上海交通大学,任计算机科学教授。主要从事统计学、机器学习与计算机科学领域的研究和教学。曾主讲“统计机器学习”“机器学习导论”“深度学习”“强化学习”,其课程视频广受欢迎。

目录
序言 i

前言 v

常用符号 xi

第 一部分 基础知识

第 1章 机器学习基础 2

1.1 线性模型 2

1.1.1 线性回归 2

1.1.2 逻辑斯谛回归 4

1.1.3 softmax分类器 7

1.2 神经网络 10

1.2.1 全连接神经网络 10

1.2.2 卷积神经网络 11

1.3 梯度下降和反向传播 12

1.3.1 梯度下降 13

1.3.2 反向传播 14

知识点小结 16

习题 16

第 2章 蒙特卡洛方法 18

2.1 随机变量 18

2.2 蒙特卡洛方法实例 21

2.2.1 例一:近似π值 21

2.2.2 例二:估算阴影部分面积 23

2.2.3 例三:近似定积分 25

2.2.4 例四:近似期望 26

2.2.5 例五:随机梯度 27

知识点小结 29

习题 29

第3章 强化学习基本概念 31

3.1 马尔可夫决策过程 31

3.1.1 状态、动作、奖励 31

3.1.2 状态转移 32

3.2 策略 33

3.3 随机性 35

3.4 回报与折扣回报 37

3.4.1 回报 37

3.4.2 折扣回报 37

3.4.3 回报中的随机性 38

3.4.4 有限期MDP和无限期MDP 39

3.5 价值函数 39

3.5.1 动作价值函数 40

3.5.2 很优动作价值函数 40

3.5.3 状态价值函数 41

3.6 实验环境:OpenAI Gym 42

知识点小结 44

习题 44

第二部分 价值学习

第4章 DQN与Q学习 48

4.1 DQN 48

4.1.1 概念回顾 48

4.1.2 DQN表达式 49

4.1.3 DQN的梯度 50

4.2 TD算法 50

4.2.1 驾车时间预测示例 50

4.2.2 TD算法的原理 51

4.3 用TD训练DQN 53

4.3.1 算法推导 53

4.3.2 训练流程 55

4.4 Q 学习算法 57

4.4.1 表格形式的Q学习 57

4.4.2 算法推导 57

4.4.3 训练流程 58

4.5 同策略与异策略 59

相关文献 60

知识点小结 61

习题 61

第5章 SARSA算法 63

5.1 表格形式的SARSA 63

5.1.1 算法推导 63

5.1.2 训练流程 64

5.1.3 Q学习与SARSA的对比 65

5.2 神经网络形式的SARSA 66

5.2.1 价值网络 66

5.2.2 算法推导 66

5.2.3 训练流程 67

5.3 多步TD目标 68

5.3.1 算法推导 68

5.3.2 多步TD目标的原理 69

5.3.3 训练流程 70

5.4 蒙特卡洛方法与自举 70

5.4.1 蒙特卡洛方法 71

5.4.2 自举 71

5.4.3 蒙特卡洛方法和自举的对比 72

相关文献 73

知识点小结 73

习题 74

第6章 价值学习高级技巧 75

6.1 经验回放 75

6.1.1 经验回放的优点 76

6.1.2 经验回放的局限性 76

6.1.3 优先经验回放 77

6.2 高估问题及解决方法 79

6.2.1 自举导致偏差传播 79

6.2.2 优选化导致高估 80

6.2.3 高估的危害 81

6.2.4 使用目标网络 82

6.2.5 双Q学习算法 84

6.2.6 总结 85

6.3 对决网络 86

6.3.1 很优优势函数 86

6.3.2 对决网络的结构 87

6.3.3 解决不专享性 88

6.3.4 对决网络的实际实现 89

6.4 噪声网络 90

6.4.1 噪声网络的原理 90

6.4.2 噪声DQN 91

6.4.3 训练流程 93

相关文献 94

知识点小结 94

习题 94

第三部分 策略学习

第7章 策略梯度方法 98

7.1 策略网络 98

7.2 策略学习的目标函数 99

7.3 策略梯度定理 101

7.3.1 简化证明 101

7.3.2 严格证明 102

7.3.3 近似策略梯度 106

7.4 REINFORCE 107

7.4.1 简化推导 108

7.4.2 训练流程 108

7.4.3 严格推导 109

7.5 actor-critic 110

7.5.1 价值网络 110

7.5.2 算法推导 111

7.5.3 训练流程 114

7.5.4 用目标网络改进训练 114

相关文献 115

知识点小结 115

习题 116

第8章 带基线的策略梯度方法 117

8.1 策略梯度中的基线 117

8.1.1 基线的引入 117

8.1.2 基线的直观解释 118

8.2 带基线的REINFORCE算法 119

8.2.1 策略网络和价值网络 120

8.2.2 算法推导 121

8.2.3 训练流程 121

8.3 advantage actor-critic 122

8.3.1 算法推导 123

8.3.2 训练流程 125

8.3.3 用目标网络改进训练 126

8.4 证明带基线的策略梯度定理 127

知识点小结 128

习题 128

第9章 策略学习高级技巧 129

9.1 置信域策略优化 129

9.1.1 置信域方法 129

9.1.2 策略学习的目标函数 132

9.1.3 算法推导 133

9.1.4 训练流程 135

9.2 策略学习中的熵正则 135

相关文献 138

知识点小结 138

第 10章 连续控制 139

10.1 连续空间的离散化 139

10.2 深度确定性策略梯度 140

10.2.1 策略网络和价值网络 140

10.2.2 算法推导 142

10.3 深入分析DDPG 145

10.3.1 从策略学习的角度看待DDPG 145

……

内容摘要
本书基于备受读者推崇的王树森“深度强化学习”系列公开视频课,专门解决“入门深度强化学习难”的问题。
本书的独特之处在于:第一,知识精简,剔除一切不必要的概念和公式,学起来轻松;第二,内容新颖,聚焦近10年深度强化学习领域的突破,让你一上手就紧跟近期新技术。本书系统讲解深度强化学习的原理与实现,但不回避数学公式和各种模型,原创100多幅精美插图,并以全彩印刷展示。简洁清晰的语言+生动形象的图示,助你扫除任何可能的学习障碍!本书内容分为五部分:基础知识、价值学习、策略学习、多智能体强化学习、应用与展望,涉及DQN、A3C、TRPO、DDPG、AlphaGo等。
本书面向深度强化学习入门读者,助你构建完整的知识体系。学完本书,你能够轻松看懂深度强化学习的实现代码、读懂该领域的论文、听懂学术报告,具备进一步自学和深挖的能力。

主编推荐
1.内容新颖,涵盖近 10 年的热门深度强化学习方法,紧跟学术前沿
2.知识精悍,围绕实用、精简两大原则,专注核心知识,成书篇幅仅 312 页
3.图多易懂,书中原创 140 多幅精美全彩插图,让方法和原理变得形象生动
4.论文导读,书中列出了 136 篇参考文献,相当于一份宝贵的论文阅读清单
5.配套课件,部分章节配有 PPT 和公开视频课,读者可以直接获取所有资源
6.作者资历丰富,小红书基础模型团队负责人王树森、华为诺亚方舟实验室高级研究员黎彧君联合北大数学科学院教授张志华作品

   相关推荐   

—  没有更多了  —

以下为对购买帮助不大的评价

此功能需要访问孔网APP才能使用
暂时不用
打开孔网APP