• 基于python的强化学 水利电力 作者
  • 基于python的强化学 水利电力 作者
21年品牌 40万+商家 超1.5亿件商品

基于python的强化学 水利电力 作者

none

54.9 6.2折 88 全新

库存3件

河北保定
认证卖家担保交易快速发货售后保障

作者作者

出版社中国电力出版社

ISBN9787519870379

出版时间2023-01

版次1

装帧平装

开本16

页数284页

字数373千字

定价88元

货号304_9787519870379

上书时间2024-12-11

贝塔图书专营店

四年老店
已实名 已认证 进店 收藏店铺

   商品详情   

品相描述:全新
正版特价新书
商品描述
目录:

前言

部分 算法与环境

章 强化学概貌 2

1.1 强化学导论 3

1.1.1 比较强化学和监督学 4

1.1.2 强化学的历史 5

1.1.3 深度强化学 6

1.2 强化学的要素 7

1.2.1 策略 8

1.2.2 值函数 9

1.2.3 回报(奖励) 10

1.2.4 模型 11

1.3 强化学的应用 11

1.3.1 游戏 11

1.3.2 机器人与4.0 12

1.3.3 机器学 12

1.3.4 经济学与金融 13

1.3.5 医疗健康 13

1.3.6 智能交通系统 13

1.3.7 能源优化与智能电网 13

1.4 本章小结 13

1.5 思题 14

1.6 延伸阅读 14

第2章 强化学过程与openai gym 15

2.1 环境设置 15

2.1.1 安装openai gym 16

2.1.2 安装roboschool 17

2.2 openai gym和强化学过程 17

2.2.1 开发强化学过程 18

2.2.2 了解空间概念 21

2.3 利用tesorflow开发强化学模型 22

2.3.1 张量 24

2.3.2 创建计算图 27

2.3.3 线回归示例 28

2.4 tensorboard介绍 32

2.5 强化学环境 34

2.5.1 为什么需要不同的环境 35

2.5.2 开源环境 35

2.6 本章小结 37

2.7 思题 37

2.8 延伸阅读 38

第3章 基于动态规划的问题求解 39

3.1 马尔可夫决策过程 39

3.1.1 策略 41

3.1.2 回报 41

3.1.3 值函数 42

3.1.4 贝尔曼方程 43

3.2 强化学算法的类别 43

3.2.1 无模型算法 44

3.2.2 基于模型的强化学 45

3.2.3 算法多样 46

3.3 动态规划 46

3.3.1 策略评价与策略改进 47

3.3.2 策略迭代 48

3.3.3 值迭代 52

3.4 本章小结 55

3.5 思题 55

3.6 延伸阅读 56

第二部分 无模型强化学算法

第4章 q-learning与sarsa的应用 58

4.1 无模型学 58

4.1.1 已有经验 59

4.1.2 策略评价 59

4.1.3 探索问题 60

4.2 时间差分学 60

4.2.1 时间差分更新 61

4.2.2 策略改进 61

4.2.3 比较蒙特卡罗和时间差分方法 62

4.3 sarsa 62

4.3.1 sarsa介绍 62

4.3.2 算法 62

4.4 应用sarsa解决ta-v2问题 63

4.5 q-learning 69

4.5.1 理论 69

4.5.2 算法 70

4.6 应用q-learning解决ta-v2问题 71

4.7 比较sarsa和q-learning 74

4.8 本章小结 74

4.9 思题 75

第5章 深度q神经网络 76

5.1 深度神经网络与q-learning 76

5.1.1 函数逼近 77

5.1.2 利用神经网络的q-learning 77

5.1.3 深度q-learning的不稳定 78

5.2 dqn 79

5.2.1 解决方案 80

5.2.2 dqn算法 80

5.2.3 模型架构 82

5.3 用于pong的dqn 83

5.3.1 雅达利游戏 84

5.3.2 预处理流程 84

5.3.3 dqn实现 87

5.3.4 结果 96

5.4 dqn变种 98

5.4.1 ddqn 98

5.4.2 竞争dqn 101

5.4.3 n步dqn 103

5.5 本章小结 104

5.6 思题 105

5.7 延伸阅读 105

第6章 策略梯度优化 106

6.1 策略梯度方法 106

6.1.1 策略的梯度 107

6.1.2 策略梯度定理 108

6.1.3 梯度的计算 109

6.1.4 策略 109

6.1.5 在线策略梯度 111

6.2 了解reinforce算法 111

6.2.1 reinforce的实现 113

6.2.2 利用reinforce实现航天器着陆 117

6.3 带基线的reinforce算法 119

6.3.1 带基线的reinforce算法的 119

6.3.2 带基线的reinforce算法的实现 121

6.4 学ac算法 122

6.4.1 让评判者帮助行动者学 122

6.4.2 n步ac模型 123

6.4.3 ac算法的实现 124

6.4.4 用ac算法实现航天器着陆 127

6.4.5 ac算法以及提示和 128

6.5 本章小结 129

6.6 思题 129

6.7 延伸阅读 129

第7章 信赖域策略优化和近端策略优化 130

7.1 roboschool 130

7.1.1 roboschool介绍 130

7.1.2 连续系统的控制 131

7.2 自然策略梯度 134

7.2.1 自然策略梯度的直观理解 134

7.2.2 数学知识基础 136

7.2.3 自然梯度的计算复杂 137

7.3 信赖域策略优化 138

7.3.1 trpo算法 138

7.3.2 trpo算法的实现 141

7.3.3 trpo的应用 147

7.4 近端策略优化 148

7.4.1 ppo简述 149

7.4.2 ppo算法 149

7.4.3 trpo算法的实现 150

7.4.4 ppo的应用 154

7.5 本章小结 155

7.6 思题 155

7.7 延伸阅读 156

第8章 确定策略梯度方法 157

8.1 策略梯度优化与q-learning的结合 157

8.1.1 两类算法的优缺点 157

8.1.2 确定策略梯度 158

8.2 深度确定策略梯度 160

8.2.1 ddpg算法 161

8.2.2 ddpg算法的实现 163

8.2.3 ddpg应用于bipedalwalker-v2 167

8.3 双延迟深度确定策略梯度 168

8.3.1 高估偏差问题 169

8.3.2 方差抑制问题 171

8.3.3 td3应用于bipedalwalker 174

8.4 本章小结 175

8.5 思题 176

8.6 延伸阅读 176

第三部分 无模型算法

第9章 基于模型的强化学 178

9.1 基于模型的方法 178

9.1.1 基于模型的学概述 179

9.1.2 基于模型的方法的优缺点 182

9.2 基于模型的学与无模型学的结合 183

9.2.1 有用的结合 183

9.2.2 利用图像构建模型 184

9.3 用于倒立摆的me-trpo 185

9.3.1 了解me-trpo 186

9.3.2 me-trpo的实现 187

9.3.3 roboschool实验 191

9.4 本章小结 193

9.5 思题 194

9.6 延伸阅读 194

0章 模仿学与dagger算法 195

10.1 技术要求 195

10.2 模仿学 196

10.2.1 驾驶助手示例 197

10.2.2 模仿学与强化学对比 198

10.2.3 模仿学中的专家作用 199

10.2.4 模仿学的结构 199

10.3 flappy bird游戏 201

10.3.1 flappy bird介绍 201

10.3.2 如何利用环境 201

10.4 理解数据集聚合算法 202

10.4.1 dagger算法 203

10.4.2 dagger算法实现 204

10.4.3 flappy bird游戏结果分析 209

10.5 反向强化学 210

10.6 本章小结 210

10.7 思题 211

10.8 延伸阅读 211

1章 黑盒优化算法 212

11.1 强化学 212

11.1.1 强化学简要回顾 212

11.1.2 替代方法 213

11.2 进化算法的核心 214

11.2.1 遗传算法 216

11.2.2 进化策略 217

11.3 可扩展的进化策略 218

11.3.1 核心思想 219

11.3.2 可扩展进化策略的实现 220

11.4 应用于lunarlander的可扩展进化策略 226

11.5 本章小结 227

11.6 思题 228

11.7 延伸阅读 228

2章 开发esbas算法 229

12.1 探索与利用 229

12.1.1 探索与利用介绍 229

12.1.2 多臂 231

12.2 探索的方法 232

12.2.1 ϵ贪婪策略 232

12.2.2 ucb算法 233

12.2.3 探索的复杂 234

12.3 esbas 235

12.3.1 拆箱算法选择 235

12.3.2 esbas介绍 236

12.3.3 算法实现 237

12.3.4 解决acrobot问题 241

12.4 本章小结 244

12.5 思题 244

12.6 延伸阅读 245

3章 应对强化学挑战的实践 246

13.1 深度强化学的佳实践 246

13.1.1 选择合适的算法 247

13.1.2 从0到1 248

13.2 深度强化学的挑战 250

13.2.1 稳定与可重现 250

13.2.2 效率 251

13.2.3 泛化 251

13.3 技术 252

13.3.1 无监督强化学 252

13.3.2 迁移学 253

13.4 现实世界中的强化学 255

13.4.1 现实挑战 256

13.4.2 弥合模拟与现实世界的差距 257

13.4.3 创建专有环境 257

13.5 强化学的未来及其社会影响 258

13.6 本章小结 258

13.7 思题 259

13.8 延伸阅读 259

附录 思题参 260

内容简介:

本书首先介绍在强化学环境中工作所需的工具、库和设置,涵盖了强化学的构成模块,深入探讨基于值的方法,如qlearning和ara算法的应用。读者将学如何结合使用qlearning和神经网络来解决复杂问题。此外,在学ddpg和td3确定算法之前,读者将学策略梯度方法,如trpo和ppo,以提高能和稳定。本书还介绍模仿学的,以及dagger如何教智能体飞行。读者将探索进化策略和黑盒优化技术。后,读者将掌握探索方法,如ucb和ucb1,并开发一个名为eba的元算法。
如果你是人工智能研究者、深度学用户,或者希望从头开始学强化学的人,那么这本书很适合你。如果你想了解该领域的进展也会发现这本书很有帮助。当然,python的基础知识是必需的。

   相关推荐   

—  没有更多了  —

以下为对购买帮助不大的评价

正版特价新书
此功能需要访问孔网APP才能使用
暂时不用
打开孔网APP