超值优惠券
¥50
100可用 有效期2天

全场图书通用(淘书团除外)

不再提示
关闭
图书盲袋,以书为“药”
欢迎光临中图网 请 | 注册
> >
PYTHON强化学习:算法、核心技术与行业应用

PYTHON强化学习:算法、核心技术与行业应用

出版社:机械工业出版社出版时间:2023-09-01
开本: 16开 页数: 348
中 图 价:¥92.9(7.2折) 定价  ¥129.0 登录后可看到会员价
加入购物车 收藏
运费6元,满39元免运费
?新疆、西藏除外
本类五星书更多>

PYTHON强化学习:算法、核心技术与行业应用 版权信息

PYTHON强化学习:算法、核心技术与行业应用 本书特色

强化学习(RL)是用于创建自学习自主智能体的人工智能方法。本书基于强大的理论基础,采用实用的方法来研究强化学习,并使用受现实世界中商业和行业问题启发的实际示例来教授先进的强化学习知识。 本书首先介绍老虎机问题、马尔可夫决策过程和动态规划,带你深入了解经典强化学习技术,包括蒙特卡罗方法和时间差分学习方法。然后,你将了解深度Q-学习、策略梯度方法、Actor-Critic算法、基于模型的方法以及多智能体强化学习。接下来,本书将介绍一些成功的强化学习实现背后的关键方法,例如,域随机化和好奇心驱动的强化学习。 随着学习的深入,你将使用现代Python库(例如,TensorFlow和Ray的RLlib包)探索许多具有高级实现的新颖算法。你还将了解如何在机器人、供应链管理、市场营销、金融、智慧城市与网络安全等领域应用强化学习技术,同时评估不同方法的利弊并避免常见的陷阱。 学完本书,你将掌握如何训练和部署自己的强化学习智能体来解决强化学习问题。通过阅读本书,你将: ? 使用强化学习建模并解决复杂的序贯决策问题。 ? 深入了解先进的强化学习方法的工作原理。 ? 使用Python和TensorFlow从头开始编写强化学习算法。 ? 使用Ray的RLlib包并行化强化学习实现,以及扩展强化学习实现。 ? 深入了解各种强化学习主题。 ? 了解不同强化学习方法之间的利弊。 ? 发现并解决在现实世界中实现强化学习的挑战。

PYTHON强化学习:算法、核心技术与行业应用 内容简介

本书使用受现实世界商业和行业问题启发的实际示例来讲授强化学习技术的相关知识。本书分为四部分:**部分涵盖强化学习的必要背景,包括定义、数学基础和强化学习解决方案的概述;第二部分深入介绍*优选的强化学习算法(规模化的深度Q-学习、基于策略的方法、基于模型的方法、多智能体强化学习等),包括每种算法的优缺点;第三部分介绍强化学习中的高级技术,包括机器教学、泛化和域随机化、元强化学习等主题,还涵盖强化学习中有助于改进模型的各种高级主题;第四部分讲解强化学习的各种应用,例如自主系统、供应链管理、营销和金融、智慧城市与网络安全等,并讨论强化学习领域的一些挑战及未来方向。学完本书,你将掌握如何训练和部署自己的强化学习智能体来解决强化学习问题。

PYTHON强化学习:算法、核心技术与行业应用 目录



CONTENTS
目  录
译者序
前言
作者简介
审校者简介
**部分 强化学习基础
第1章 强化学习简介 2
1.1 为什么选择强化学习 2
1.2 机器学习的三种范式 3
1.2.1 监督学习 3
1.2.2 无监督学习 4
1.2.3 强化学习 4
1.3 强化学习应用领域和成功案例 5
1.3.1 游戏 6
1.3.2 机器人技术和自主系统 7
1.3.3 供应链 8
1.3.4 制造业 8
1.3.5 个性化和推荐系统 9
1.3.6 智慧城市 9
1.4 强化学习问题的元素 10
1.4.1 强化学习概念 10
1.4.2 将井字棋游戏建模为强化
学习问题 11
1.5 设置强化学习环境 12
1.5.1 硬件要求 12
1.5.2 操作系统 13
1.5.3 软件工具箱 13
1.6 总结 14
1.7 参考文献 15
第2章 多臂老虎机 17
2.1 探索–利用权衡 17
2.2 什么是多臂老虎机问题 18
2.2.1 问题定义 18
2.2.2 一个简单多臂老虎机问题
的实验 19
2.3 案例研究:在线广告 22
2.4 A/B/n测试 23
2.4.1 符号 23
2.4.2 应用于在线广告场景 24
2.4.3 A/B/n测试的优缺点 27
2.5 ε-贪心策略行动 27
2.5.1 应用于在线广告场景 27
2.5.2 ε-贪心策略行动的优缺点 29
2.6 使用置信上界进行行动选择 30
2.6.1 应用于在线广告场景 30
2.6.2 使用置信上界的优缺点 32
2.7 汤普森(后)采样 33
2.7.1 应用于在线广告场景 33
2.7.2 汤普森采样的优缺点 36
2.8 总结 36
2.9 参考文献 36
第3章 上下文多臂老虎机 37
3.1 为什么我们需要函数近似 37
3.2 对上下文使用函数近似 38
3.2.1 案例研究:使用合成用户
数据的上下文在线广告 39
3.2.2 使用正则化逻辑斯谛回归
的函数近似 42
3.2.3 目标函数:悔值小化 45
3.2.4 解决在线广告问题 46
3.3 对行动使用函数近似 50
3.3.1 案例研究:使用来自美国
人口普查的用户数据的上
下文在线广告 51
3.3.2 使用神经网络进行函数
近似 55
3.3.3 计算悔值 57
3.3.4 解决在线广告问题 57
3.4 多臂老虎机和上下文老虎机的
其他应用 59
3.4.1 推荐系统 59
3.4.2 网页/应用程序功能设计 60
3.4.3 医疗保健 60
3.4.4 动态定价 60
3.4.5 金融 60
3.4.6 控制系统调整 60
3.5 总结 61
3.6 参考文献 61
第4章 马尔可夫决策过程的制定 63
4.1 马尔可夫链 63
4.1.1 具有马尔可夫性的随机
过程 63
4.1.2 马尔可夫链中的状态分类 65
4.1.3 转移和稳态行为 66
4.1.4 示例:网格世界中的n-
步行为 67
4.1.5 示例:一个可遍历马尔可
夫链中的样本路径 69
4.1.6 半马尔可夫过程和连续时
间马尔可夫链 70
4.2 引入奖励:马尔可夫奖励过程 70
4.2.1 将奖励附加到网格世界
示例 71
4.2.2 不同初始化的平均奖励之
间的关系 72
4.2.3 回报、折扣和状态值 72
4.2.4 解析式地计算状态值 73
4.2.5 迭代式地估计状态值 74
4.3 引入行动:马尔可夫决策过程 75
4.3.1 定义 75
4.3.2 网格世界作为马尔可夫决
策过程 76
4.3.3 状态值函数 77
4.3.4 行动值函数 77
4.3.5 优状态值和行动值
函数 78
4.3.6 贝尔曼优性 78
4.4 部分可观测的马尔可夫决策过程 79
4.5 总结 80
4.6 练习 80
4.7 参考文献 81
第5章 求解强化学习问题 82
5.1 探索动态规划 82
5.1.1 示例用例:食品卡车的库存补充 82
5.1.2 策略评估 85
5.1.3 策略迭代 90
5.1.4 值迭代 94
5.1.5 动态规划方法的缺点 95
5.2 用蒙特卡罗法训练智能体 96
5.2.1 蒙特卡罗预测 97
5.2.2 蒙特卡罗控制 104
5.3 时间差分学习 111
5.3.1 一步时间差分学习 112
5.3.2 n-步时间差分学习 117
5.4 了解模拟在强化学习中的
重要性 117
5.5 总结 118
5.6 练习 119
5.7 参考文献 119
第二部分 深度强化学习
第6章 规模化的深度Q-学习 122
6.1 从表格型Q-学习到深度Q-
学习 122
6.1.1 神经网络拟合的Q-迭代 123
6.1.2 在线Q-学习 127
6.2 深度Q网络 128
6.2.1 DQN中的关键概念 128
6.2.2 DQN算法 129
6.3 DQN扩展:Rainbow 130
6.3.1 扩展 130
6.3.2 集成智能体的性能 134
6.3.3 如何选择使用哪些扩展:Rainbow的消融实验 134
6.3.4 “死亡三组合”发生了什
展开全部

PYTHON强化学习:算法、核心技术与行业应用 作者简介

埃内斯·比尔金 (Enes Bilgin) 微软自主系统部门的高级人工智能工程师和技术主管。他是一名机器学习与运筹学从业者和研究员,在使用Python、TensorFlow和Ray/RLlib为顶级科技公司构建生产系统和模型方面拥有丰富的经验。他拥有波士顿大学系统工程硕士学位和博士学位,以及比尔肯特大学工业工程学士学位。他曾在亚马逊担任研究科学家,并在AMD担任过运筹学研究科学家,还在得克萨斯大学奥斯汀分校的麦库姆斯商学院和得克萨斯州立大学的英格拉姆工程学院担任过兼职教师。

商品评论(0条)
暂无评论……
书友推荐
本类畅销
编辑推荐
返回顶部
中图网