• 自然语言处理中的贝叶斯分析(原书第2版)
21年品牌 40万+商家 超1.5亿件商品

自然语言处理中的贝叶斯分析(原书第2版)

全新正版 极速发货

47.71 5.4折 89 全新

库存5件

广东广州
认证卖家担保交易快速发货售后保障

作者(以)谢伊·科恩 著 杨伟,袁科 译

出版社机械工业出版社

ISBN9787111669579

出版时间2021-01

装帧平装

开本16开

定价89元

货号1202200983

上书时间2024-11-21

大智慧小美丽

已实名 已认证 进店 收藏店铺

   商品详情   

品相描述:全新
商品描述
目录
译者序

第2版前言

第1版前言

第1版致谢

第1章  基础知识

1.1  概率测度

1.2  随机变量

1.2.1  连续随机变量和离散随机变量

1.2.2  多元随机变量的联合分布

1.3  条件分布

1.3.1  贝叶斯法则

1.3.2  独立随机变量与条件独立随机变量

1.3.3  可交换的随机变量

1.4  随机变量的期望

1.5  模型

1.5.1  参数模型与非参数模型

1.5.2  模型推断

1.5.3  生成模型

1.5.4 模型中的独立性假定

1.5.5  有向图模型

1.6  从数据场景中学习

1.7  贝叶斯学派和频率学派的哲学(冰山一角)

1.8  本章小结

1.9  习题

第2章  绪论

2.1  贝叶斯统计与自然语言处理的结合点概述

2.2  第一个例子:隐狄利克雷分配模型

2.2.1  狄利克雷分布

2.2.2  推断

2.2.3  总结

2.3  第二个例子:贝叶斯文本回归

2.4  本章小结

2.5  习题

第3章  先验

3.1  共轭先验

3.1.1  共轭先验和归一化常数

3.1.2  共轭先验在隐变量模型中的应用

3.1.3  混合共轭先验

3.1.4  重新归一化共轭分布

3.1.5  是否共轭的讨论

3.1.6  总结

3.2  多项式分布和类别分布的先验

3.2.1  再谈狄利克雷分布

3.2.2  Logistic正态分布

3.2.3  讨论

3.2.4  总结

3.3  非信息先验

3.3.1  均匀不正常先验

3.3.2  Jeffreys先验

3.3.3  讨论

3.4 共轭指数模型

3.5  模型中的多参数抽取

3.6  结构先验

3.7  本章小结

3.8  习题

第4章  贝叶斯估计

4.1  隐变量学习:两种观点

4.2  贝叶斯点估计

4.2.1  最大后验估计

4.2.2  基于最大后验解的后验近似

4.2.3  决策-理论点估计

4.2.4  总结

4.3  经验贝叶斯

4.4  后验的渐近行为

4.5  本章小结

4.6  习题

第5章  采样算法

5.1  MCMC算法:概述

5.2  MCMC推断的自然语言处理模型结构

5.3  吉布斯采样

5.3.1  坍塌吉布斯采样

5.3.2  运算符视图

5.3.3  并行化的吉布斯采样器

5.3.4  总结

5.4  Metropolis-Hastjrags算法

5.5  切片采样

5.5.1  辅助变量采样

5.5.2  切片采样和辅助变量采样在自然语言处理中的应用

5.6  模拟退火

5.7  MCMC算法的收敛性

5.8  马尔可夫链:基本理论

5.9  MCMC领域外的采样算法

5.10  蒙特卡罗积分

5.11  讨论

5.11.1  分布的可计算性与采样

5.11.2  嵌套的MCMC采样

5.11.3  MCMC方法的运行时间

5.11.4  粒子滤波

5.12  本章小结

5.13  习题

第6章  变分推断

6.1  边缘对数似然的变分界

6.2  平均场近似

6.3  平均场变分推断算法

6.3.1  狄利克雷-多项式变分推断

6.3.2  与期望最大化算法的联系

6.4  基于变分推断的经验贝叶斯

6.5  讨论

6.5.1  推断算法的初始化

6.5.2  收敛性诊断

6.5.3  变分推断在解码中的应用

6.5.4  变分推断最小化KL散度

6.5.5  在线的变分推断

6.6  本章小结

6.7  习题

第7章  非参数先验

7.1  狄利克雷过程:三种视角

7.1.1  折棍子过程

7.1.2  中餐馆过程

7.2  狄利克雷过程混合模型

7.2.1  基于狄利克雷过程混合模型的推断

7.2.2  狄利克雷过程混合是混合模型的极限

7.3  层次狄利克雷过程

7.4  Pitman.Yor过程

7.4.1  Pitman-Yor过程用于语言建模

7.4.2  Pitman-Yor过程的幂律行为

7.5  讨论

7.5.1  高斯过程

7.5.2  印度自助餐过程

7.5.3  嵌套的中餐馆过程

7.5.4  距离依赖的中餐馆过程

7.5.5  序列记忆器

7.6  本章小结

7.7  习题

第8章  贝叶斯语法模型

8.1  贝叶斯隐马尔可夫模型

8.2  概率上下文无关语法

8.2.1  作为多项式分布集的PCFG

8.2.2  PCFG的基本推断算法

8.2.3  作为隐马尔可夫模型的PCFG

8.3  贝叶斯概率上下文无关语法

8.3.1  PCFG的先验

8.3.2  贝叶斯PCFG的蒙特卡罗推断

8.3.3  贝叶斯PCFG的变分推断

8.4  适配器语法

8.4.1  Pitman-Yor适配器语法

8.4.2  PYAG的折棍子视角

8.4.3  基于PYAG的推断

8.5  层次狄利克雷过程PCFG

8.6  依存语法

8.7  同步语法

8.8  多语言学习

8.8.1  词性标注

8.8.2  语法归纳

8.9  延伸阅读

8.10  本章小结

8.11  习题

第9章  表征学习与神经网络

9.1  神经网络与表征学习:为什么是现在

9.2  词嵌入

9.2.1  词嵌入的skip-gram模型

9.2.2  贝叶斯skip-rgram词嵌入

9.2.3  讨论

9.3  神经网络

9.3.1  频率论估计和反向传播算法

9.3.2  神经网络权值的先验

9.4  神经网络在自然语言处理中的现代应用

9.4.1  循环神经网络和递归神经网络

……

内容摘要
本书对基于贝叶斯分析进行自然语言处理需掌握的概念、理论知识和算法进行了深入浅出的介绍,讲解了常见的推断技术(马尔可夫链蒙特卡罗采样和变分推断)、贝叶斯估计和非参数建模等。特别是为应对领域的快速发展,第2版新增了第9章“表征学习与神经网络”。此外,还介绍贝叶斯统计中的基本概念,如先验分布、共轭和生成建模。最后,本书回顾自然语言处理中的一些基本建模技术(包括语法建模、神经网络和表征学习)以及它们在贝叶斯分析中的应用。

主编推荐
自然语言处理(Natural Language Processing ,NLP)在20世纪80年代中期经历了深刻变革,其开始大量使用语料库和数据驱动技术对语言进行分析。自那时起,统计技术在自然语言处理中的应用在多个方面得到了发展。其中的一个例子发生在20世纪90年代末或21世纪初,自然语言处理引入了成熟的贝叶斯机制。这种针对自然语言处理的贝叶斯方法已经可以解决频率学派方法的各种缺点,特别是在没有目标预测示例的无监督情况下进行统计学习更能弥补频率学派方法的不足。

   相关推荐   

—  没有更多了  —

以下为对购买帮助不大的评价

此功能需要访问孔网APP才能使用
暂时不用
打开孔网APP