-
>
决战行测5000题(言语理解与表达)
-
>
软件性能测试.分析与调优实践之路
-
>
第一行代码Android
-
>
深度学习
-
>
Unreal Engine 4蓝图完全学习教程
-
>
深入理解计算机系统-原书第3版
-
>
Word/Excel PPT 2013办公应用从入门到精通-(附赠1DVD.含语音视频教学+办公模板+PDF电子书)
机器学习:工程师和科学家的第一本书 版权信息
- ISBN:9787111753698
- 条形码:9787111753698 ; 978-7-111-75369-8
- 装帧:平装-胶订
- 册数:暂无
- 重量:暂无
- 所属分类:>
机器学习:工程师和科学家的第一本书 本书特色
·本书在数学知识的深度和广度之间实现了理想的平衡。·本书不仅讲解清晰,而且包含很多图示,是自学的绝佳工具,也可以作为机器学习入门课的教科书。·对于那些有数学背景并且想了解有监督的机器学习原理的读者来说,本书不可不读。
机器学习:工程师和科学家的第一本书 内容简介
在连贯的统计框架中,本书涵盖了一系列有监督的机器学习方法,包括基础方法(k-NN、决策树、线性和逻辑回归等)和高级方法(深度神经网络、支持向量机、高斯过程、随机森林和提升等),以及常用的无监督方法(生成模型、k-均值聚类、自动编码器、主成分分析和生成对抗网络等)。所有方法都包含详细的解释和伪代码。通过在方法之间建立联系,讨论一般概念(例如损失函数、zuida似然、偏差-方差分解、核和贝叶斯方法),同时介绍常规的实用工具(例如正则化、交叉验证、评估指标和优化方法),本书始终将关注点放在基础知识上。*后两章为解决现实世界中有监督的机器学习问题和现代机器学习的伦理问题提供了实用建议。
机器学习:工程师和科学家的第一本书 目录
Machine Learning: A First Course for Engineers and Scientists
译者序
致谢
符号表
第1章?引?言 1
1.1?机器学习的示例 1
1.2?关于本书 8
1.3?拓展阅读 9
第2章?有监督学习:**个方法 10
2.1?有监督机器学习 10
2.1.1 从有标记的数据中学习 10
2.1.2 数值型和分类型变量 11
2.1.3 分类和回归 11
2.1.4 在训练数据之外进行泛化 14
2.2 一个基于距离的方法:k-NN 14
2.2.1 k-NN算法 14
2.2.2 分类器的决策边界 16
2.2.3 k的选择 17
2.2.4 输入标准化 19
2.3 一种基于规则的方法:决策树 20
2.3.1 学习回归树 21
2.3.2 分类树 24
2.3.3 决策树应该多深? 27
2.4 拓展阅读 29
第3章?基本参数模型和统计
视角上的学习 30
3.1?线性回归 30
3.1.1 线性回归模型 30
3.1.2 用训练数据训练线性
回归模型 31
3.1.3 损失函数和代价函数 32
3.1.4 *小二乘法和正规方程 33
3.1.5 *大似然视角 35
3.1.6 分类型输入变量 36
3.2 分类和逻辑回归 36
3.2.1 从统计角度看分类问题 36
3.2.2 二元分类的逻辑回归模型 38
3.2.3 通过*大似然法训练逻辑
回归模型 39
3.2.4 预测和决策边界 40
3.2.5 两类以上的逻辑回归 42
3.3 多项式回归和正则化 44
3.4 广义线性模型 46
3.5?拓展阅读 48
3.A 正规方程的推导 49
3.A.1 微积分方法 49
3.A.2 线性代数方法 49
第4章?理解、评估和提高性能 51
4.1 预期的新数据错误:实际
生产环境中的性能 51
4.2 估计 53
4.2.1 :我们无法从
训练数据中估计 53
4.2.2 :我们可以从
保留的验证数据中估计 54
4.2.3 k-fold 交叉验证:
无须设置保留验证数据 55
4.2.4 使用测试数据集 57
4.3 的训练误差:泛化差距分解 57
4.3.1 什么影响泛化差距? 58
4.3.2 在实际应用中降低 61
4.3.3 模型复杂度的缺陷 62
4.4 的偏差-方差分解 63
4.4.1 什么影响偏差和方差? 65
4.4.2 偏差、方差和泛化差距
之间的联系 67
4.5 用于评估二元分类器的其他工具 70
4.5.1 混淆矩阵和ROC曲线 70
4.5.2 分数和精确率-召回率
曲线 72
4.6 拓展阅读 73
第5章?学习参数模型 75
5.1 参数化建模原则 75
5.1.1 非线性参数函数 75
5.1.2 损失*小化作为泛化替代 77
5.2 损失函数和基于似然的模型 78
5.2.1 回归中的损失函数 79
5.2.2 二元分类中的损失函数 80
5.2.3 多类分类 83
5.2.4 基于似然的模型和*大似然
方法 83
5.2.5 严格正确的损失函数和渐近
*小化器 85
5.3 正则化 88
5.3.1 正则化 88
5.3.2 正则化 89
5.3.3 一般显式正则化 90
5.3.4 隐式正则化 90
5.4 参数优化 90
5.4.1 闭式解优化 92
5.4.2 梯度下降 93
5.4.3 二阶梯度法 96
5.5 大型数据集优化 100
5.5.1 随机梯度下降 100
5.5.2 随机梯度下降的学习率和
收敛度 101
5.5.3 随机二阶梯度法 103
5.5.4 自适应方法 103
5.6 超参数优化 103
5.7 拓展阅读 105
第6章?神经网络和深度学习 106
6.1 神经网络模型 106
6.1.1 广义线性回归 106
6.1.2 双层神经网络 107
6.1.3 单元向量化 108
6.1.4 深度神经网络 109
6.1.5 数据点向量化 110
6.1.6 用于分类的神经网络 111
6.2 训练神经网络 112
6.2.1 反向传播 113
6.2.2 初始化 117
6.3 卷积神经网络 118
6.3.1 图像的数据表示 118
6.3.2 卷积层 119
6.3.3 稀疏相互作用 119
6.3.4 参数共享 120
6.3.5 卷积层和步幅 120
6.3.6 池化层 121
6.3.7 多通道 122
6.3.8 完整的CNN架构 123
6.4 dropout 124
6.4.1 子网络集成 125
6.4.2 通过dropout训练 125
6.4.3 测试时的预测 126
6.4.4 dropout和bagging 126
6.4.5 将dropout作为正则化方法 127
6.5 拓展阅读 127
6.A 反向传播方程的推导 128
第7章?集成方法:bagging和
提升方法 129
7.1 bagging方法 129
7.1.1 自举法 131
7.1.2 通过取平均值降低方差 132
7.1.3 包外误差估计 135
7.2 随机森林 136
7.3 提升方法和AdaBoost 138
7.3.1 AdaBoost 140
7.3.2 AdaBoost的设计选择 145
7.4 梯度提升方法 145
7.5 拓展阅读 149
第8章?非线性输入变换和核 151
8.1 通过非线性输入变换创造特征 151
8.2 核岭回归 153
8.2.1 对线性回归的重构 153
8.
机器学习:工程师和科学家的第一本书 作者简介
安德里亚斯·林霍尔姆(Andreas Lindholm) 瑞典Annotell公司机器学习研究工程师,致力于解决自动驾驶的数据注释和数据质量问题。2013年获得林雪平大学理学硕士学位,2018年获得乌普萨拉大学信息技术方向博士学位。
尼克拉斯·瓦尔斯特伦(Niklas Wahlstr?m) 乌普萨拉大学系统与控制系助理教授。2010年获得林雪平大学理学硕士学位,2015年获得林雪平大学自动控制方向博士学位。
弗雷德里克·林斯滕(Fredrik Lindsten) 林雪平大学统计与机器学习系副教授。2013年获得林雪平大学自动控制方向博士学位。他曾获得瑞典战略研究基金会颁发的Ingvar Carlsson奖和乌普萨拉皇家科学学会颁发的Benzelius奖。
托马斯·B. 舍恩(Thomas B. Sch?n) 乌普萨拉大学人工智能方向教授。2018年当选瑞典皇家工程科学院和乌普萨拉皇家科学学会院士。他曾获得瑞典皇家科学院颁发的Tage Erlander奖和Arnberg奖。他是ELLIS协会会士。
- >
诗经-先民的歌唱
诗经-先民的歌唱
¥18.7¥39.8 - >
龙榆生:词曲概论/大家小书
龙榆生:词曲概论/大家小书
¥7.7¥24.0 - >
唐代进士录
唐代进士录
¥15.1¥39.8 - >
李白与唐代文化
李白与唐代文化
¥12.5¥29.8 - >
巴金-再思录
巴金-再思录
¥14.7¥46.0 - >
推拿
推拿
¥12.2¥32.0 - >
伊索寓言-世界文学名著典藏-全译本
伊索寓言-世界文学名著典藏-全译本
¥9.3¥19.0 - >
伯纳黛特,你要去哪(2021新版)
伯纳黛特,你要去哪(2021新版)
¥15.9¥49.8
-
”互联网+“时代计算机算法的应用及其实践研究
¥19.9¥59 -
微服务设计
¥52.8¥69 -
图说深度学习:用可视化方法理解复杂概念
¥109¥188 -
计算机基础
¥17.2¥31 -
改变未来的九大算法
¥50¥68 -
生成式AI入门与AWS实战
¥77.8¥99.8