书馨卡帮你省薪
欢迎光临中图网 请 | 注册
> >
基于深度学习的自然语言处理和语音识别

基于深度学习的自然语言处理和语音识别

出版社:机械工业出版社出版时间:2024-01-01
开本: 16开 页数: 427
中 图 价:¥114.5(7.2折) 定价  ¥159.0 登录后可看到会员价
加入购物车 收藏
运费6元,满39元免运费
?新疆、西藏除外
本类五星书更多>

基于深度学习的自然语言处理和语音识别 版权信息

  • ISBN:9787111740933
  • 条形码:9787111740933 ; 978-7-111-74093-3
  • 装帧:平装-胶订
  • 册数:暂无
  • 重量:暂无
  • 所属分类:>

基于深度学习的自然语言处理和语音识别 本书特色

随着深度学习、自然语言处理(NLP)和语音处理应用在许多领域(包括金融、医疗和政务等)的广泛应用,越来越需要一种综合资源,将深度学习技术映射到NLP和语音处理,并提供在现实应用程序中使用相关工具和库的指导。本书剖析了适用于NLP和语音处理的前沿深度学习方法,提供了全面的介绍,并在现实案例研究中给出了代码以方便上手实践。

基于深度学习的自然语言处理和语音识别 内容简介

本书介绍了深度学习的体系结构,以及在各种NLP任务的应用,包括文档分类、机器翻译、语言建模和语音识别。并提供使用真实世界的应用程序的工具和库的介绍。为NLP和语音识别的深度学习解释了适用于NLP和语音的深度学习方法,并提供了实际的案例研究与代码。

基于深度学习的自然语言处理和语音识别 目录

目 录
Deep Learning for NLP and Speech Recognition 推荐序一
推荐序二
推荐序三
译者序
前言
致谢
符号约定 **部分 机器学习、自然语言处理与语音介绍 第1章 引言2
1.1 机器学习3
1.1.1 监督学习3
1.1.2 无监督学习4
1.1.3 半监督学习和主动学习4
1.1.4 迁移学习和多任务学习4
1.1.5 强化学习4
1.2 历史背景4
1.2.1 深度学习简史5
1.2.2 自然语言处理简史7
1.2.3 自动语音识别简史10
1.3 为实践者提供的工具、库、数据
集和资源12
1.3.1 深度学习12
1.3.2 自然语言处理13
1.3.3 语音识别13
1.3.4 书籍14
1.3.5 在线课程与资源14
1.3.6 数据集15
1.4 案例研究和实现细节17
参考文献18
第2章 机器学习基础29
2.1 章节简介29
2.2 监督学习:框架和正式定义29
2.2.1 输入空间和样本29
2.2.2 目标函数和标签30
2.2.3 训练和预测30
2.3 学习过程31
2.4 机器学习理论32
2.4.1 通过Vapnik-Chervonenkis分析
进行“泛化-近似”的权衡32
2.4.2 通过偏差-方差分析进行“泛
化-近似”的权衡33
2.4.3 模型性能和评估指标34
2.4.4 模型验证36
2.4.5 模型估计和对比38
2.4.6 机器学习中的实践经验39
2.5 线性算法40
2.5.1 线性回归40
2.5.2 感知机41
2.5.3 正则化42
2.5.4 逻辑回归43
2.5.5 生成式分类器46
2.5.6 线性算法中的实践经验47
2.6 非线性算法47
2.6.1 支持向量机48
2.6.2 其他非线性算法49
2.7 特征的转换、选择和降维50
2.7.1 特征转换50
2.7.2 特征选择和降维50
2.8 序列数据和建模51
2.8.1 离散时间马尔可夫链51
2.8.2 判别式方法:隐马尔可夫
模型52
2.8.3 生成式方法:条件随机场53
2.9 案例研究55
2.9.1 软件工具和资源库55
2.9.2 探索性数据分析56
2.9.3 模型训练和超参数搜索56
2.9.4 *终训练和测试模型60
2.9.5 留给读者的练习60
参考文献62
第3章 文本和语音处理基础63
3.1 章节简介63
3.1.1 计算语言学63
3.1.2 自然语言63
3.1.3 语言模型64
3.2 词法分析65
3.2.1 词干化65
3.2.2 词元化65
3.3 词汇表示66
3.3.1 标记66
3.3.2 停用词66
3.3.3 n-gram67
3.3.4 文档67
3.4 句法表示69
3.4.1 词性69
3.4.2 依存分析70
3.5 语义表示71
3.5.1 命名实体识别72
3.5.2 关系抽取72
3.5.3 事件抽取73
3.5.4 语义角色标注73
3.6 语篇表示73
3.6.1 衔接性73
3.6.2 连贯性74
3.6.3 回指/预指74
3.6.4 局部和全局共指74
3.7 语言模型74
3.7.1 n-gram模型74
3.7.2 拉普拉斯平滑75
3.7.3 集外词75
3.7.4 困惑度76
3.8 文本分类76
3.8.1 机器学习方法76
3.8.2 情感分析77
3.8.3 蕴含79
3.9 文本聚类79
3.9.1 词汇链79
3.9.2 主题建模80
3.10 机器翻译80
3.10.1 基于字典的翻译80
3.10.2 基于统计的翻译81
3.11 问答系统81
3.11.1 基于信息检索的问答82
3.11.2 基于知识的问答82
3.11.3 自动推理83
3.12 自动摘要83
3.12.1 基于提取的自动摘要83
3.12.2 基于抽象的自动摘要83
3.13 自动语音识别84
3.14 案例研究85
3.14.1 软件工具和库85
3.14.2 探索性数据分析86
3.14.3 文本聚类87
3.14.4 主题建模90
3.14.5 文本分类92
3.14.6 留给读者的练习94
参考文献94 第二部分 深度学习介绍 第4章 深度学习基础100
4.1 章节简介100
4.2 感知机算法详解101
4.2.1 偏置101
4.2.2 线性和非线性可分103
4.3 多层感知机(神经网络)103
4.3.1 训练MLP104
4.3.2 前向传播104
4.3.3 误差计算105
4.3.4 反向传播105
4.3.5 参数更新106
4.3.6 全局逼近定理107
4.4 深度学习107
4.4.1 激活函数108
4.4.2 损失函数112
4.4.3 优化方法112
4.5 模型训练114
4.5.1 提前停止114
4.5.2 梯度消失/爆炸115
4.5.3 全批量和小批量梯度下降115
4.5.4 正则化115
4.5.5 超参数选择117
4.5.6 数据可用性和质量118
4.5.7 讨论119
4.6 无监督深度学习120
4.6.1 基于能量的模型120
4.6.2 受限玻耳兹曼机120
4.6.3 深度置信网络121
4.6.4 自编码器121
4.6.5 稀疏编码124
4.6.6 生成对抗网络124
4.7 关于框架的思考125
4.7.1 层抽象125
4.7.2 计算图125
4.7.3 反向模式自动微分125
4.7.4 静态计算图126
4.7.5 动态计算图126
4.8 案例研究127
4.8.1 软件工具和库127
4.8.2 探索性数据分析127
4.8.3 监督学习128
4.8.4 无监督学习132
4.8.5 使用无监督特征进行分类134
4.8.6 结果135
4.8.7 留给读者的练习136
参考文献136
第5章 分布式表示139
5.1 章节简介139
5.2 分布式语义139
5.2.1 向量空间模型139
5.2.2 词表示140
5.2.3 神经语言模型140
5.2.4 word2vec142
5.2.5 GloVe149
5.2.6 谱词向量150
5.2.7 多语言词向量150
5.3 词向量的局限性151
5.3.1 集外词151
5.3.2 反义词151
5.3.3 多义词152
5.3.4 偏见154
5.3.5 其他限制154
5.4 进阶内容154
5.4.1 子词向量154
5.4.2 词向量量化155
5.4.3 句子向量156
5.4.4 概念向量156
5.4.5 语义词典的更新157
5.4.6 高斯嵌入158
5.4.7 双曲嵌入159
5.5 应用160
5.5.1 分类160
5.5.2 文档聚类161
5.5.3 语言模型161
5.5.4 文本异常检测162
5.5.5 语境化向量162
5.6 案例研究163
5.6.1 软件工具和库163
5.6.2 探索性数据分析163
5.6.3 学习词向量165
5.6.4 文档聚类173
5.6.5 词义消歧174
5.6.6 留给读者的练习176
参考文献176
第6章 卷积神经网络179
6.1 章节简介179
6.2 卷积神经网络的基本构建模块179
6.2.1 线性时不变系统中的卷积和
相关性179
6.2.2 局部连接或稀疏交互180
6.2.3 参数共享181
6.2.4 空间排列181
6.2.5 使用非线性的检测器183
6.2.6 池化和下采样184
6.3 卷积神经网络中的前向和反向传播185
6.3.1 关于权重的梯度185
6.3.2 关于输入的梯度186
6.3.3 *大池化层187
6.4 文本输入和卷积神经网络187
6.4.1 词向量和卷积神经网络187
6.4.2 基于字符的表示和卷积神经网络190
6.5 经典卷积神经网络架构191
6.5.1 LeNet-5191
6.5.2 AlexNet192
6.5.3 VGG-16193
6.6 现代卷积神经网络架构194
6.6.1 堆叠或分层卷积神经网络194
6.6.2 空洞卷积神经网络194
6.6.3 Inception网络195
6.6.4 其他卷积神经网络结构197
6.7 卷积神经网络在自然语言处理中
的应用199
6.7.1 文本分类199
6.7.2 文本聚类和主题挖掘199
6.7.3 语法分析200
6.7.4 信息抽取200
6.7.5 机器翻译200
6.7.6 文本摘要201
6.7.7 问答系统201
6.8 卷积快速算法201
6.8.1 卷积定理和快速傅里叶变换201
6.8.2 快速滤波算法202
6.9 案例研究203
6.9.1 软件工具和库204
6.9.2 探索性数据分析204
6.9.3 数据预处理和数据拆分205
6.9.4 卷积神经网络模型实验206
6.9.5 了解和改进模型209
6.9.6 留给读者的练习211
6.10 讨论211
参考文献211
第7章 循环神经网络215
7.1 章节简介215
7.2 循环神经网络的基本构建模块215
7.2.1 循环与记忆215
7.2.2 PyTorch示例216
7.3 循环神经网络及其特性217
7.3.1 循环神经网络中的前向和反向
传播217
7.3.2 梯度消失问题和正则化221
7.4 深度循环神经网络架构223
7.4.1 深度循环网络223
7.4.2 残差LSTM223
7.4.3 循环高速网络224
7.4.4 双向循环神经网络224
7.4.5 SRU和Quasi-RNN224
7.4.6 递归神经网络225
7.5 循环神经网络的扩展226
7.5.1 序列到序列方法226
7.5.2 注意力机制227
7.5.3 指针网络228
7.5.4 transformer网络229
7.6 循环神经网络在自然语言处理中
的应用229
7.6.1 文本分类230
7.6.2 词性标注和命名实体识别230
7.6.3 依存分析230
7.6.4 主题建模和摘要230
7.6.5 问答系统231
7.6.6 多模态231
7.6.7 语言模型231
7.6.8 神经机器翻译232
7.6.9 预测/采样输出234
7.7 案例研究236
7.7.1 软件工具和库236
7.7.2 探索性数据分析236
7.7.3 模型训练241
7.7.4 结果243
7.7.5 留给读者的练习247
7.8 讨论247
7.8.1 记忆或泛化247
7.8.2 RNN的未来248
参考文献248
第8章 自动语音识别252
8.1 章节简介252
8.2 声学特征253
8.2.1 语音的形成253
8.2.2 语音的原始波形253
8.2.3 MFCC253
8.2.4 其他类型的特征257
8.3 音素257
8.4 统计语音识别259
8.4.1 声学模型:P(X|W)260
8.4.2 语言模型:P(W)262
8.4.3 HMM解码263
8.5 错误指标264
8.6 DNN/HMM混合模型266
8.7 案例研究267
8.7.1 数据集:Common Voice267
8.7.2 软件工具和库267
8.7.3 Sphinx267
8.7.4 Kaldi271
8.7.5 结果273
8.7.6 留给读者的练习275
参考文献275 第三部分 用于文本与语音的高阶深度学习技术 第9章 注意力与记忆增强网络278
9.1 章节简介278
9.2 注意力机制279
9.2.1 对注意力机制的需求279
9.2.2 软注意力机制279
9.2.3 基于评分的注意力机制281
9.2.4 软注意力与硬注意力281
9.2.5 局部注意力与全局注意力282
9.2.6 自注意力机制282
9.2.7 键值注意力机制283
9.2.8 多头自注意力机制283
9.2.9 分层注意力机制284
9.2.10 注意力机制在文本和语音中
的应用286
9.3 记忆增强网络286
9.3.1 记忆网络286
9.3.2 端到端记忆网络288
9.3.3 神经图灵机290
9.3.4 可微神经计算机292
9.3.5 动态记忆网络294
9.3.6 神经堆栈、队列和双端队列296
9.3.7 循环实体网络299
9.3.8 记忆增强网络在文本和语音中
的应用300
9.4 案例研究301
9.4.1 基于注意力的NMT301
9.4.2 探索性数据分析301
9.4.3 问答308
9.4.4 动态记忆网络312
9.4.5 留给读者的练习316
参考文献316
第10章 迁移学习:场景、自学习和多任务学习319
10.1 章节简介319
10.2 迁移学习:定义、场景和类别319
10.2.1 迁移学习定义319
10.2.2 迁移学习场景320
10.2.3 迁移学习类别321
10.3 自学习322
10.3.1 技术322
10.3.2 理论323
10.3.3 在NLP中的应用323
10.3.4 在语音识别中的应用324
10.4 多任务学习324
10.4.1 技术324
10.4.2 理论330
10.4.3 在NLP中的应用331
10.4.4 在语音识别中的应用332
10.5 案例研究332
10.5.1 软件工具和库332
10.5.2 探索性数据分析332
10.5.3 多任务学习实验与分析333
10.5.4 留给读者的练习337
参考文献337
第11章 迁移学习:领域自适应341
11.1 章节简介341
11.1.1 技术341
11.1.2 理论354
11.1.3 在NLP中的应用356
11.1.4 在语音识别中的应用356
11.2 零样本学习、单样本学习和
小样本学习357
11.2.1 零样本学习357
11.2.2 单样本学习359
11.2.3 小样本学习360
11.2.4 理论360
11.2.5 在NLP和语音识别中的
应用360
11.3 案例研究361
11.3.1 软件工具和库361
11.3.2 探索性数据分析362
11.3.3 领域自适应实验362
11.3.4 留给读者的练习366
参考文献366
第12章 端到端语音识别371
12.1 章节简介371
12.2 联结主义时间分类371
12.2.1 端到端音位识别373
12.2.2 Deep Speech374
12.2.3 Deep Speech 2375
12.2.4 Wav2Letter375
12.2.5 对CTC的扩展376
12.3 序列到序列模型377
12.3.1 早期的序列到序列自动语音
识别378
12.3.2 LAS网络378
12.4 多任务学习379
12.5 端到端解码380
12.5.1 ASR语言模型380
12.5.2 CTC解码380
12.5.3 注意力解码382
12.5.4 组合语言模型训练384
12.5.5 组合CTC-注意力解码384
12.6 语音嵌入和无监督语音识别385
12.6.1 语音嵌入385
12.6.2 非语音386
12.6.3 音频word2vec386
12.7 案例研究387
12.7.1 软件工具和库387
12.7.2 Deep Speech 2387
12.7.3 语言模型训练388
12.7.4 ESPnet390
12.7.5 结果393
12.7.6 留给读者的练习394
参考文献394
第13章 用于文本和语音处理的深度
强化学习397
13.1 章节简介397
13.2 强化学习基础397
13.2.1 马尔可夫决策过程397
13.2.2 价值函数、Q函数和优势
函数398
13.2.3 贝尔曼方程399
13.2.4 *优化399
13.2.5 动态规划方法400
13.2.6 蒙特卡罗402
13.2.7 时序差分学习403
13.2.8 策略梯度405
13.2.9 Q学习406
13.2.10 演员评论家算法406
13.3 深度强化学习算法408
13.3.1 强化学习为何可以应用于seq2seq408
13.3.2 深度策略梯度408
13.3.3 深度Q学习409
13.3.4 深度优势演员评论家算法412
13.4 用于文本处理的深度强化学习
方法413
13.4.1 信息提取413
13.4.2 文本分类415
13.4.3 对话系统416
13.4.4 文本摘要417
13.4.5 机器翻译418
13.5 基于语音的深度强化学习418
13.5.1 自动语音识别418
13.5.2 语音增强和噪声抑制418
13.6 案例研究419
13.6.1 软件工具和库419
13.6.2 文本摘要419
13.6.3 探索性数据分析419
13.6.4 留给读者的练习422
参考文献422
第14章 未来展望425
14.1 端到端架构的流行425
14.2 以人工智能为中心的趋势425
14.3 专用硬件425
14.4 从监督学习过渡到其他方式425
14.5 可解释的人工智能426
14.6 模型开发和部署过程426
14.7 人工智能的民主化426
14.8 NLP发展趋势426
14.9 语音处理发展趋势427
14.10 结束语427
展开全部

基于深度学习的自然语言处理和语音识别 作者简介

作者简介:
电子科技大学计算机学院教授、博士生导师,四川省天府科技领军人才,国家自然科学基金联合基金会评专家,高速铁路运行环境智能监控工程研究中心副主任。长期致力于人工智能理论与应用创新研究,主持国家自然科学基金企业联合基金重点项目、国家重点研发计划项目及课题等20余项。发表学术论文90余篇,出版国家级规划教材和学术著作3部。作为第一完成人获四川省科技进步一等奖、中国安全生产协会科技进步一等奖各一项。
电子科技大学研究员、博士生导师,四川省学术和技术带头人后备人选。主要研究方向为机器学习
与模式识别,先后主持和主研包括NSFC联合基金重点、国家重点研发计划在内的各类科研项目10余项,发表高水平期刊和会议论文50余篇,获得国家发明专利授权9项,获得四川省科技进步一等奖。长期从事软件工程和数据分析等课程的教学工作,主持获评四川省一流本科课程。
电子科技大学副教授,CCF高级会员,四川省人工智能学会理事。主要研究方向为人工智能(多视作者简介: 乌黛·卡马特 (Uday Kamath) Digital Reasoning(NLP和语音识别AI领域的顶尖企业之一)的首席分析官,领导“应用机器学习”研究小组。他拥有超过20年的架构和构建基于分析的商业解决方案的经验。Uday撰写过许多关于机器学习的书籍,如Machine Learning: End-to-End guide for Java developers和《Java机器学习》。Uday是首批使用进化计算进行机器学习算法扩展的研究者之一。 约翰·刘 (John Liu) Intelluron Corporation的首席执行官。在这之前,John担任过Digital Reasoning的副总裁,负责数据科学和数据策略。他在过去的22年里一直在管理定量研究、投资组合和数据科学的团队。2016年,John被评为年度纳什维尔数据科学家。他在宾夕法尼亚大学获得电气工程学士、硕士和博士学位,是CFA证书持有者。 詹姆斯·惠特克 (James Whitaker) 负责管理Digital Reasoning的应用研究。他目前还领导金融科技领域语音分析的深度学习研究,在过去4年里一直在构建NLP、语音识别和计算机视觉方面的机器学习应用。他在牛津大学获得计算机科学硕士学位。 译者简介: 刘 峤
电子科技大学计算机学院教授、博士生导师,四川省天府科技领军人才,国家自然科学基金联合基金会评专家,高速铁路运行环境智能监控工程研究中心副主任。长期致力于人工智能理论与应用创新研究,主持国家自然科学基金企业联合基金重点项目、国家重点研发计划项目及课题等20余项。发表学术论文90余篇,出版国家级规划教材和学术著作3部。作为第一完成人获四川省科技进步一等奖、中国安全生产协会科技进步一等奖各一项。 蓝 天
电子科技大学研究员、博士生导师,四川省学术和技术带头人后备人选。主要研究方向为机器学习
与模式识别,先后主持和主研包括NSFC联合基金重点、国家重点研发计划在内的各类科研项目10余项,发表高水平期刊和会议论文50余篇,获得国家发明专利授权9项,获得四川省科技进步一等奖。长期从事软件工程和数据分析等课程的教学工作,主持获评四川省一流本科课程。 任亚洲
电子科技大学副教授,CCF高级会员,四川省人工智能学会理事。主要研究方向为人工智能(多视
图学习、图学习、无监督学习等)与智慧医疗,主持和参与NSFC青年基金、NSFC重点项目、科技创新2030重大项目、四川省重大科技项目等多个项目,发表高水平期刊和会议论文100余篇(其中CCF A类/SCI一区论文30多篇)。 徐增林
哈尔滨工业大学(深圳)教授、博士生导师,国家自然基金评审专家。主要研究方向为机器学习及其在社会网络分析、互联网、计算生物学、信息安全等方面的应用。在IEEE TPAMI、IEEE TNN等期刊和NIPS、ICML、IJCAI、AAAI等重要会议发表论文50多篇,出版专著2部。获得2015年AAAI大会最佳学生论文奖提名,ACML 2016最佳学生论文奖亚军(Runner Up)。曾于2012年在多伦多召开的国际人工智能大会(AAAI)上做教学报告。

商品评论(0条)
暂无评论……
书友推荐
本类畅销
编辑推荐
返回顶部
中图网
在线客服