• 自然语言处理中的贝叶斯分析(原书第2版)/智能科学与技术丛书
21年品牌 40万+商家 超1.5亿件商品

自然语言处理中的贝叶斯分析(原书第2版)/智能科学与技术丛书

全新正版 极速发货

64.9 7.3折 89 全新

库存2件

浙江嘉兴
认证卖家担保交易快速发货售后保障

作者谢伊·科恩(ShayCohen)

出版社机械工业出版社

ISBN9787111669579

出版时间2020-12

装帧平装

开本16开

定价89元

货号31058771

上书时间2024-12-30

學源图书专营店

已实名 已认证 进店 收藏店铺

   商品详情   

品相描述:全新
商品描述
目录
译者序<br/>第2版前言<br/>第1版前言<br/>第1版致谢<br/>第1章 基础知识  1<br/>1.1 概率测度  1<br/>1.2 随机变量  2<br/>1.2.1 连续随机变量和离散随机变量  2<br/>1.2.2 多元随机变量的联合分布  3<br/>1.3 条件分布  4<br/>1.3.1 贝叶斯法则  5<br/>1.3.2 独立随机变量与条件独立随机变量  6<br/>1.3.3 可交换的随机变量  6<br/>1.4 随机变量的期望  7<br/>1.5 模型  9<br/>1.5.1 参数模型与非参数模型  9<br/>1.5.2 模型推断  10<br/>1.5.3 生成模型  11<br/>1.5.4 模型中的独立性假定  13<br/>1.5.5 有向图模型  13<br/>1.6 从数据场景中学习  15<br/>1.7 贝叶斯学派和频率学派的哲学(冰山一角)  17<br/>1.8 本章小结  17<br/>1.9 习题  18<br/>第2章 绪论  19<br/>2.1 贝叶斯统计与自然语言处理的结合点概述  19<br/>2.2 第一个例子:隐狄利克雷分配模型  22<br/>2.2.1 狄利克雷分布  26<br/>2.2.2 推断  28<br/>2.2.3 总结  29<br/>2.3 第二个例子:贝叶斯文本回归  30<br/>2.4 本章小结  31<br/>2.5 习题  31<br/>第3章 先验  33<br/>3.1 共轭先验  33<br/>3.1.1 共轭先验和归一化常数  36<br/>3.1.2 共轭先验在隐变量模型中的应用  37<br/>3.1.3 混合共轭先验  38<br/>3.1.4 重新归一化共轭分布  39<br/>3.1.5 是否共轭的讨论  39<br/>3.1.6 总结  40<br/>3.2 多项式分布和类别分布的先验  40<br/>3.2.1 再谈狄利克雷分布  41<br/>3.2.2 Logistic正态分布  44<br/>3.2.3 讨论  48<br/>3.2.4 总结  49<br/>3.3 非信息先验  49<br/>3.3.1 均匀不正常先验  50<br/>3.3.2 Jeffreys先验  51<br/>3.3.3 讨论  51<br/>3.4 共轭指数模型  52<br/>3.5 模型中的多参数抽取  53<br/>3.6 结构先验  54<br/>3.7 本章小结  55<br/>3.8 习题  56<br/>第4章 贝叶斯估计  57<br/>4.1 隐变量学习:两种观点  58<br/>4.2 贝叶斯点估计  58<br/>4.2.1 最大后验估计  59<br/>4.2.2 基于最大后验解的后验近似  64<br/>4.2.3 决策-理论点估计  65<br/>4.2.4 总结  66<br/>4.3 经验贝叶斯  66<br/>4.4 后验的渐近行为  68<br/>4.5 本章小结  69<br/>4.6 习题  69<br/>第5章 采样算法  70<br/>5.1 MCMC算法:概述  71<br/>5.2 MCMC推断的自然语言处理模型结构  71<br/>5.3 吉布斯采样  73<br/>5.3.1 坍塌吉布斯采样  76<br/>5.3.2 运算符视图  79<br/>5.3.3 并行化的吉布斯采样器  80<br/>5.3.4 总结  81<br/>5.4 Metropolis-Hastings算法  82<br/>5.5 切片采样  84<br/>5.5.1 辅助变量采样  85<br/>5.5.2 切片采样和辅助变量采样在自然语言处理中的应用  85<br/>5.6 模拟退火  86<br/>5.7 MCMC算法的收敛性  86<br/>5.8 马尔可夫链:基本理论  88<br/>5.9 MCMC领域外的采样算法  89<br/>5.10 蒙特卡罗积分  91<br/>5.11 讨论  93<br/>5.11.1 分布的可计算性与采样  93<br/>5.11.2 嵌套的MCMC采样  93<br/>5.11.3 MCMC方法的运行时间  93<br/>5.11.4 粒子滤波  93<br/>5.12 本章小结  95<br/>5.13 习题  95<br/>第6章 变分推断  97<br/>6.1 边缘对数似然的变分界  97<br/>6.2 平均场近似  99<br/>6.3 平均场变分推断算法  100<br/>6.3.1 狄利克雷-多项式变分推断  101<br/>6.3.2 与期望最大化算法的联系  104<br/>6.4 基于变分推断的经验贝叶斯  106<br/>6.5 讨论  106<br/>6.5.1 推断算法的初始化  107<br/>6.5.2 收敛性诊断  107<br/>6.5.3 变分推断在解码中的应用  107<br/>6.5.4 变分推断最小化KL散度  108<br/>6.5.5 在线的变分推断  109<br/>6.6 本章小结  109<br/>6.7 习题  109<br/>第7章 非参数先验  111<br/>7.1 狄利克雷过程:三种视角  112<br/>7.1.1 折棍子过程  112<br/>7.1.2 中餐馆过程  114<br/>7.2 狄利克雷过程混合模型  115<br/>7.2.1 基于狄利克雷过程混合模型的推断  116<br/>7.2.2 狄利克雷过程混合是混合模型的极限  118<br/>7.3 层次狄利克雷过程  119<br/>7.4 Pitman?Yor过程  120<br/>7.4.1 Pitman-Yor过程用于语言建模  121<br/>7.4.2 Pitman-Yor过程的幂律行为  122<br/>7.5 讨论  123<br/>7.5.1 高斯过程  124<br/>7.5.2 印度自助餐过程  124<br/>7.5.3 嵌套的中餐馆过程  125<br/>7.5.4 距离依赖的中餐馆过程  125<br/>7.5.5 序列记忆器  126<br/>7.6 本章小结  126<br/>7.7 习题  127<br/>第8章 贝叶斯语法模型  128<br/>8.1 贝叶斯隐马尔可夫模型  129<br/>8.2 概率上下文无关语法  131<br/>8.2.1 作为多项式分布集的PCFG  133<br/>8.2.2 PCFG的基本推断算法  133<br/>8.2.3 作为隐马尔可夫模型的PCFG  136<br/>8.3 贝叶斯概率上下文无关语法  137<br/>8.3.1 PCFG的先验  137<br/>8.3.2 贝叶斯PCFG的蒙特卡罗推断  138<br/>8.3.3 贝叶斯PCFG的变分推断  139<br/>8.4 适配器语法  140<br/>8.4.1 Pitman-Yor适配器语法  141<br/>8.4.2 PYAG的折棍子视角  142<br/>8.4.3 基于PYAG的推断  143<br/>8.5 层次狄利克雷过程PCFG  144<br/>8.6 依存语法  147<br/>8.7 同步语法  148<br/>8.8 多语言学习  149<br/>8.8.1 词性标注  149<br/>8.8.2 语法归纳  151<br/>8.9 延伸阅读  152<br/>8.10 本章小结  153<br/>8.11 习题  153<br/>第9章 表征学习与神经网络  155<br/>9.1 神经网络与表征学习:为什么是现在  155<br/>9.2 词嵌入  158<br/>9.2.1 词嵌入的skip-gram模型  158<br/>9.2.2 贝叶斯skip-gram词嵌入  160<br/>9.2.3 讨论  161<br/>9.3 神经网络  162<br/>9.3.1 频率论估计和反向传播算法  164<br/>9.3.2 神经网络权值的先验  166<br/>9.4 神经网络在自然语言处理中的现代应用  168<br/>9.4.1 循环神经网络和递归神经网络  168<br/>9.4.2 梯度消失与梯度爆炸问题  169<br/>9.4.3 神经编码器-解码器模型  172<br/>9.4.4 卷积神经网络  175<br/>9.5 调整神经网络  177<br/>9.5.1 正则化  177<br/>9.5.2 超参数调整  178<br/>9.6 神经网络生成建模  180<br/>9.6.1 变分自编码器  180<br/>9.6.2 生成对抗网络  185<br/>9.7 本章小结  186<br/>9.8 习题  187<br/>结束语  189<br/>附录A 基本概念  191<br/>附录B 概率分布清单  197<br/>参考文献  203

内容摘要
本书涵盖了流利阅读NLP中贝叶斯学习方向的论文以及从事该领域的研究所需的方法和算法。这些方法和算法部分来自于机器学习和统计学,部分是针对NLP开发的。我们涵盖推理技术,如马尔科夫链、蒙特卡罗抽样和变分推理、贝叶斯估计和非参数建模。为了应对该领域的快速变化,本书新版增加了一个新的章节,关于贝叶斯背景下的表现学习和神经网络。我们还将介绍贝叶斯统计的基本概念,如先验分布、共轭性和生成式建模。最后,我们回顾了一些基本的NLP建模技术,如语法建模、神经网络和表示学习,以及它们在贝叶斯分析中的应用。

主编推荐
自然语言处理(Natural Language Processing ,NLP)在20世纪80年代中期经历了深刻变革,其开始大量使用语料库和数据驱动技术对语言进行分析。自那时起,统计技术在自然语言处理中的应用在多个方面得到了发展。其中的一个例子发生在20世纪90年代末或21世纪初,自然语言处理引入了成熟的贝叶斯机制。这种针对自然语言处理的贝叶斯方法已经可以解决频率学派方法的各种缺点,特别是在没有目标预测示例的无监督情况下进行统计学习更能弥补频率学派方法的不足。

   相关推荐   

—  没有更多了  —

以下为对购买帮助不大的评价

此功能需要访问孔网APP才能使用
暂时不用
打开孔网APP