• {正版现货新书} 自然语言处理:基于机器学习视角:a machine learning perspective 9787111742234 张岳,滕志扬著

{正版现货新书} 自然语言处理:基于机器学习视角:a machine learning perspective 9787111742234 张岳,滕志扬著

全新正版现货,以书名为准,放心购买,购书咨询18515909251朱老师

87.82 6.3折 139 全新

库存37件

北京丰台

作者张岳,滕志扬著

出版社机械工业出版社

ISBN9787111742234

出版时间2024-03

装帧平装

开本16开

定价139元

货号15565500

上书时间2025-12-11

   商品详情   

品相描述:全新
商品描述
目录
目录 中文版序 译者序 前言 符号表 第一部分  基础知识 第1章  绪论  2 1.1  自然语言处理的概念  2 1.2  自然语言处理任务  3 1.2.1  基础任务  4 1.2.2  信息抽取任务  12 1.2.3  应用  16 1.2.4  小结  18 1.3  机器学习视角下的自然语言 处理任务  18 总结  19 注释  19 习题  19 参考文献  21 第2章  相对频率  35 2.1  概率建模  35 2.1.1  优选似然估计  35 2.1.2  词概率建模  36 2.1.3  模型与概率分布  37 2.2  n元语言模型  41 2.2.1  一元语言模型  41 2.2.2  二元语言模型  43 2.2.3  三元及高阶语言模型  46 2.2.4  生成式模型  48 2.3  朴素贝叶斯文本分类器  49 2.3.1  朴素贝叶斯文本分类  50 2.3.2  文本分类器的评估  52 2.3.3  边缘概率的计算  53 2.3.4  特征  53 总结  54 注释  54 习题  54 参考文献  56 第3章  特征向量  57 3.1  文本在向量空间中的表示  57 3.1.1  聚类  59 3.1.2  k均值聚类  61 3.1.3  分类  62 3.1.4  支持向量机  63 3.1.5  感知机  65 3.2  多分类  66 3.2.1  定义基于输出的特征  67 3.2.2  多分类支持向量机  68 3.2.3  多分类感知机  69 3.3  线性判别式模型  70 3.3.1  判别式模型及其特征  70 3.3.2  线性模型的点积形式  72 3.4  向量空间与模型训练  72 3.4.1  可分性与泛化性  72 3.4.2  处理非线性可分数据  73 总结  74 注释  74 习题  74 参考文献  76 第4章  判别式线性分类器   78 4.1  对数线性模型  78 4.1.1  二分类对数线性模型的训练  79 4.1.2  多分类对数线性模型的训练  83 4.1.3  利用对数线性模型进行分类  85 4.2  基于随机梯度下降法训练支持向量机  85 4.2.1  二分类支持向量机的训练  86 4.2.2  多分类支持向量机的训练  87 4.2.3  感知机训练的目标函数  88 4.3  广义线性模型  88 4.3.1  统一在线训练  89 4.3.2  损失函数  89 4.3.3  正则化  92 4.4  模型融合  92 4.4.1  模型性能比较  92 4.4.2  模型集成  93 4.4.3  半监督学习  95 总结  96 注释  96 习题  97 参考文献  99 第5章  信息论观点  101 5.1  优选熵原理  101 5.1.1  朴素优选熵模型  103 5.1.2  条件熵  104 5.1.3  优选熵模型与训练数据  105 5.2  KL散度与交叉熵  108 5.2.1  交叉熵和优选似然估计  109 5.2.2  模型困惑度  110 5.3  互信息  111 5.3.1  点互信息  112 5.3.2  基于点互信息的文本挖掘  113 5.3.3  基于点互信息的特征选取  115 5.3.4  词的点互信息与向量表示  115 总结  117 注释  117 习题  117 参考文献  120 第6章  隐变量  121 6.1  期望优选算法  121 6.1.1  k均值算法  123 6.1.2  期望优选算法介绍  125 6.2  基于期望优选算法的隐变量模型  127 6.2.1  无监督朴素贝叶斯模型  127 6.2.2  IBM模型1  130 6.2.3  概率潜在语义分析  136 6.2.4  生成模型的相对优势  138 6.3  期望优选算法的理论基础  138 6.3.1  期望优选与KL散度  139 6.3.2  基于数值优化的期 望优选算法推导  140 总结  141 注释  142 习题  142 参考文献  144 第二部分  结构研究 第7章  生成式序列标注任务  146 7.1  序列标注  146 7.2  隐马尔可夫模型  147 7.2.1  隐马尔可夫模型的训练  149 7.2.2  解码  149 7.3  计算边缘概率  153 7.3.1  前向算法  154 7.3.2  后向算法  154 7.3.3  前向-后向算法  156 7.3.4  二阶隐马尔可夫模型的前向-后向算法  156 7.4  基于期望优选算法的无监督隐马尔可夫模型训练  158 总结  164 注释  164 习题  165 参考文献  166 第8章  判别式序列标注任务  168 8.1  局部训练的判别式序列标注模型  168 8.2  标注偏置问题  171 8.3  条件随机场  172 8.3.1  全局特征向量  173 8.3.2  解码  174 8.3.3  边缘概率计算  175 8.3.4  训练  178 8.4  结构化感知机  181 8.5  结构化支持向量机  184 总结  186 注释  186 习题  186 参考文献  188 第9章  序列分割  189 9.1  基于序列标注的序列分割任务  189 9.1.1  面向分词的序列标注特征  190 9.1.2  面向句法组块分析的序列标注特征  192 9.1.3  面向命名实体识别的序列标注特征  192 9.1.4  序列分割输出的评价方式  193 9.2  面向序列分割的判别式模型  193 9.2.1  分词中的词级别特征  194 9.2.2  基于动态规划的准确搜索解码  195 9.2.3  半马尔可夫条件随机场  197 9.2.4  优选间隔模型  202 9.3  结构化感知机与柱搜索  203 9.3.1  放宽特征局部约束  204 9.3.2  柱搜索解码  205 总结  207 注释  207 习题  207 参考文献  208 第10章  树结构预测  210 10.1  生成式成分句法分析  210 10.1.1  概率上下文无关文法  212 10.1.2  CKY解码  213 10.1.3  成分句法解析器的性能评估  215 10.1.4  边缘概率的计算  215 10.2  成分句法分析的特征  218 10.2.1  词汇化概率上下文无关文法  218 10.2.2  判别式成分句法分析模型  221 10.2.3  面向成分句法分析的对数线性模型  222 10.2.4  面向成分句法分析的优选间隔模型  225 10.3  重排序  225 10.4  序列和树结构总结及展望  228 总结  228 注释  228 习题  229 参考文献  230 第11章  基于转移的结构预测模型  233 11.1  基于转移的结构化预测  233 11.1.1  贪心式局部模型  235 11.1.2  结构化全局模型  236 11.2  基于转移的成分句法分析  239 11.2.1  移进归约成分句法分析  239 11.2.2  特征模板  241 11.3  基于转移的依存句法分析  242 11.3.1  标准弧转移依存句法分析  243 11.3.2  依存句法解析器的评价方法  245 11.3.3  贪心弧转移依存句法分析  245 11.3.4  基于SWAP动作的非投影树解析  246 11.4  句法分析联合模型  247 11.4.1  分词、词性标注与依存句法分析联合模型  248 11.4.2  讨论  250 总结  251 注释  251 习题  251 参考文献  252 第12章  贝叶斯网络  254 12.1  通用概率模型  254 12.2  贝叶斯网络的训练  257 12.2.1  优选似然估计  258 12.2.2  优选后验估计  259 12.2.3  共轭先验  261 12.2.4  贝叶斯估计  263 12.2.5  贝叶斯一元语言模型  265 12.3  推理  266 12.3.1  准确推理  266 12.3.2  吉布斯采样  267 12.4  潜在狄利克雷分配  269 12.4.1  带有隐变量的训练过程  271 12.4.2  潜在狄利克雷分配模型的应用  274 12.4.3  主题评价  275 12.5  贝叶斯IBM模型1  276 总结  276 注释  277 习题  277 参考文献  278 第三部分  深度学习 第13章  神经网络  282 13.1  从单层网络到多层网络  282 13.1.1  面向文本分类任务的多层感知机  284 13.1.2  多层感知机的训练  287 13.2  构建不依赖人工特征的文本分类器  292 13.2.1  词嵌入  293 13.2.2  序列编码层  293 13.2.3  输出层  296 13.2.4  训练  297 13.3  神经网络的训练优化  298 13.3.1  Short-cut连接  298 13.3.2  层标准化  298 13.3.3  Dropout机制  299 13.3.4  神经网络随机梯度下降训练算法的优化  299 13.3.5  超参数搜索  301 总结  301 注释  301 习题  301 参考文献  303 第14章  表示学习  305 14.1  循环神经网络  305 14.1.1  朴素循环神经网络  306 14.1.2  循环神经网络的训练  307 14.1.3  长短期记忆网络与门控循环单元  309 14.1.4  堆叠式长短期记忆网络  311 14.2  注意力机制  312 14.2.1  键值对注意力  313 14.2.2  自注意力网络  315 14.3  树结构  315 14.3.1  Child-Sum树形长短期记忆网络  316 14.3.2  二叉树长短期记忆网络  318 14.3.3  特征对比  319 14.4  图结构  319 14.4.1  图循环神经网络  320 14.4.2  图卷积神经网络  321 14.4.3  图注意力神经网络  322 14.4.4  特征聚合  323 14.5  表示向量的分析  323 14.6  神经网络的训练  324 14.6.1  AdaGrad算法  324 14.6.2  RMSProp算法  325 14.6.3  AdaDelta算法  325 14.6.4  Adam算法  326 14.6.5  优化算法的选择  327 总结  327 注释  327 习题  328 参考文献  331 第15章  基于神经网络的结构预测模型  334 15.1  基于图的局部模型  334 15.1.1  序列标注  335 15.1.2  依存分析  337 15.1.3  成分句法分析  340 15.1.4  和线性模型的对比  342 15.2  基于转移的局部贪心模型  342 15.2.1  模型1  343 15.2.2  模型2  346 15.2.3  模型3  347 15.3  全局结构化模型  349 15.3.1  基于神经网络的条件随机场模型  349 15.3.2  全局规范化的基于转移的模型  355 总结  357 注释  358 习题  358 参考文献  359 第16章  两段式文本任务  361 16.1  序列到序列模型  361 16.1.1  模型1:基于长短期记忆网络  361 16.1.2  模型2:基于注意力机制  364 16.1.3  模型3:基于拷贝机制&nb

以下为对购买帮助不大的评价

此功能需要访问孔网APP才能使用
暂时不用
打开孔网APP