-
>
决战行测5000题(言语理解与表达)
-
>
软件性能测试.分析与调优实践之路
-
>
第一行代码Android
-
>
深度学习
-
>
Unreal Engine 4蓝图完全学习教程
-
>
深入理解计算机系统-原书第3版
-
>
Word/Excel PPT 2013办公应用从入门到精通-(附赠1DVD.含语音视频教学+办公模板+PDF电子书)
强化学习与最优控制 版权信息
- ISBN:9787302656449
- 条形码:9787302656449 ; 978-7-302-65644-9
- 装帧:平装-胶订
- 册数:暂无
- 重量:暂无
- 所属分类:>
强化学习与最优控制 本书特色
本书通过*优控制与动态规划的视角介绍和解读强化学习,对不同领域中给出的类似的重要概念加以梳理澄清,并将许多行之有效的方法置于统一的理论框架中。这有助于读者宏观、全面地理解该学科的经典理论与前沿研究,进而激发相关的研究兴趣。
强化学习与最优控制 内容简介
本书的目的是考虑大型且具有挑战性的多阶段决策问题,这些问题原则上可以通过动态规划和**控制来解决,但它们的准确解决方案在计算上是难以处理的。本书讨论依赖于近似的解决方法,以产生具有足够性能的次优策略。这些方法统称为增强学习,也可以叫做近似动态规划和神经动态规划等。 本书的主题产生于**控制和人工智能思想的相互作用。本书的目的之一是探索这两个领域之间的共同边界,并架设一座具有任一领域背景的专业人士都可以访问的桥梁。
强化学习与最优控制 目录
1.1 确定性动态规划 1
1.1.1 确定性问题. 1
1.1.2 动态规划算法 5
1.1.3 值空间的近似 9
1.2 随机动态规划 10
1.3 例子、变形和简化. 13
1.3.1 确定性*短路径问题 14
1.3.2 确定性离散优化问题 15
1.3.3 含终止状态的问题 18
1.3.4 预报 20
1.3.5 含不可控状态组分的问题 21
1.3.6 不完整的状态信息和置信状态 25
1.3.7 线性二次型*优控制 28
1.3.8 含未知参数的系统——自适应控制 30
1.4 强化学习与*优控制——一些术语 32
1.5 注释和资源 34
第 2 章 值空间的近似 36
2.1 强化学习中的近似方法. 36
2.1.1 值空间近似的一般问题 39
2.1.2 离线与在线方法 40
2.1.3 针对前瞻*小化的基于模型的简化 40
2.1.4 无模型的离线 Q 因子近似 41
2.1.5 基于值空间近似的策略空间近似 43
2.1.6 值空间的近似何时有效 44
2.2 多步前瞻. 45
2.2.1 多步前瞻与滚动时域 46
2.2.2 多步前瞻与确定性问题 47
2.3 问题近似. 48
2.3.1 强制解耦 49
2.3.2 随机问题中的近似——确定性等价控制 . 54
2.4 策略前展与策略改进原则. 58
2.4.1 针对确定性离散优化问题的在线策略前展 59
2.4.2 随机策略前展与蒙特卡洛树搜索 68
2.4.3 基于专家的策略前展 75
2.5 针对确定性无穷空间问题的在线策略前展——优化类启发式方法 76
2.5.1 模型预测控制 77
2.5.2 目标管道与约束可控性条件 82
2.5.3 模型预测控制的变形 85
2.6 注释与资源 86
第 3 章 参数化近似 90
3.1 近似架构. 90
3.1.1 基于特征的线性与非线性参数架构 90
3.1.2 训练线性与非线性架构 95
3.1.3 增量梯度与牛顿法 96
3.2 神经网络. 107
3.2.1 训练神经网络. 109
3.2.2 多层与深度神经网络 112
3.3 连续动态规划近似 115
3.4 Q 因子参数化近似 116
3.5 基于分类的策略空间参数化近似 119
3.6 注释与资源 122
第 4 章 无穷阶段动态规划 124
4.1 无穷阶段问题概论 124
4.2 随机*短路径问题 126
4.3 折扣问题. 133
4.4 半马尔可夫折扣问题 137
4.5 异步分布式值迭代 141
4.6 策略迭代. 144
4.6.1 精确策略迭代. 144
4.6.2 乐观与多步前瞻策略迭代 148
4.6.3 针对 Q 因子的策略迭代 149
4.7 注释和资源 151
4.8 附录:数学分析. 152
4.8.1 随机*短路径问题的相关证明 152
4.8.2 折扣问题的相关证明 157
4.8.3 精确与乐观策略迭代的收敛性 157
第 5 章 无穷阶段强化学习 160
5.1 值空间近似——性能界 160
5.1.1 有限前瞻. 162
5.1.2 策略前展. 164
5.1.3 近似策略迭代. 167
5.2 拟合值迭代 169
5.3 采用参数化近似的基于仿真的策略迭代 173
5.3.1 自主学习与执行–批评方法 173
5.3.2 一种基于模型的变体 174
5.3.3 一种无模型的变体. 176
5.3.4 实施参数化策略迭代的挑战. 177
5.3.5 近似策略迭代的收敛问题——振荡 180
5.4 Q 学习 183
5.5 附加方法——时序差分 185
5.6 精确与近似线性规划 194
5.7 策略空间近似. 196
5.7.1 通过费用优化执行训练——策略梯度、交叉熵以及随机搜索方法 199
5.7.2 基于专家的监督学习 207
5.7.3 近似策略迭代、策略前展与策略空间近似. 208
5.8 注释和资源 212
5.9 附录:数学分析. 216
5.9.1 多步前瞻的性能界. 216
5.9.2 策略前展的性能界. 218
5.9.3 近似策略迭代的性能界. 220
第 6 章 聚集 223
6.1 包含代表状态的聚集 223
6.1.1 连续控制空间离散化 227
6.1.2 连续状态空间——部分可观察马尔可夫决策问题的离散化 228
6.2 包含代表特征的聚集 230
6.2.1 硬聚集与误差界 232
6.2.2 采用特征的聚集 234
6.3 求解聚集问题的方法 237
6.3.1 基于仿真的策略迭代 238
6.3.2 基于仿真的值迭代. 240
6.4 包含神经网络的基于特征的聚集 241
6.5 偏心聚集. 242
6.6 注释和资源 244
6.7 附录:数学分析. 247
参考文献 250
强化学习与最优控制 作者简介
李宇超,瑞典皇家理工学院决策与控制专业博士在读。博士期间研究课题为强化学习,最优控制,以及相关理论在智能交通领域的应用。他于2015年在哈尔滨工业大学机械制造及其自动化专业获得本科学位,并在1年后从现就读学院的机电一体化专业获得硕士学位。
- >
企鹅口袋书系列·伟大的思想20:论自然选择(英汉双语)
企鹅口袋书系列·伟大的思想20:论自然选择(英汉双语)
¥9.7¥14.0 - >
苦雨斋序跋文-周作人自编集
苦雨斋序跋文-周作人自编集
¥6.9¥16.0 - >
我与地坛
我与地坛
¥20.2¥28.0 - >
回忆爱玛侬
回忆爱玛侬
¥9.8¥32.8 - >
【精装绘本】画给孩子的中国神话
【精装绘本】画给孩子的中国神话
¥17.6¥55.0 - >
中国历史的瞬间
中国历史的瞬间
¥16.7¥38.0 - >
二体千字文
二体千字文
¥21.6¥40.0 - >
罗庸西南联大授课录
罗庸西南联大授课录
¥16.6¥32.0
-
详解Spring Boot(从入门到企业级开发实战)/孙鑫精品图书系列
¥64.2¥129 -
PYTHON应用与实战
¥52.9¥79.8 -
Python编程与数值方法
¥79.6¥109 -
Go语言从入门到项目实战(视频版)
¥60.4¥108 -
软件设计师
¥14.2¥38 -
GO语言编程从入门到实践
¥75.6¥108