• 基于深度学习的自然语言处理
21年品牌 40万+商家 超1.5亿件商品

基于深度学习的自然语言处理

正版新书 新华官方库房直发 可开电子发票

43.47 6.3折 69 全新

库存7件

江苏南京
认证卖家担保交易快速发货售后保障

作者(以)约阿夫·戈尔德贝格(Yoav Goldberg) 著;车万翔 等 译

出版社机械工业出版社

ISBN9787111593737

出版时间2018-05

版次1

装帧平装

开本16开

纸张胶版纸

页数255页

定价69元

货号SC:9787111593737

上书时间2024-12-03

问典书店

四年老店
已实名 已认证 进店 收藏店铺

   商品详情   

品相描述:全新
全新正版 提供发票
商品描述
作者简介:
约阿夫·戈尔德贝格(Yoav Goldberg),以色列巴伊兰大学计算机科学系高级讲师,曾任Google Research研究员。他于2011年获得本·古里安大学博士学位。他曾经担任EMNLP,EACL等重要国际会议领域主席,在自然语言处理领域发表论文50余篇,并多次获得佳论文以及杰出论文奖。同时他也是自然语言处理领域很好期刊《Computational Linguistics》的编辑部成员。他的研究方向包括面向自然语言处理的机器学习方法,结构预测,句法与词法分析等。近几年,他专注于神经网络模型,在基于深度学习的自然语言处理方法上作出了重要贡献,同时他也是主流深度学习工具包DyNet的主要研发者之一。
车万翔,博士,哈尔滨工业大学教授,博士生导师,斯坦福大学访问学者。研究方向为自然语言处理。在CoNLL、SANCL、SemEal等国际评测获得过冠军。任ACL、COLING、EMNLP等国际会议领域主席。负责研发的语言技术平台(LTP)已被600余家单位共享,并授权给百度、腾讯、华为等公司使用。曾获黑龙江科技进步一等奖、技术发明二等奖;汉王青年创新奖一等奖;钱伟长中文信息处理科学奖等奖项。2017年所主讲的《Python语言程序设计》课程获国家精品在线开放课程。
郭江,博士,毕业于哈尔滨工业大学社会计算与信息检索研究中心,就读期间先后于美国普林斯顿大学以及约翰·霍普金斯大学进行访问研究,现为美国麻省理工学院计算机科学与人工智能实验室博士后研究员。研究领域主要为自然语言处理与机器学习。在人工智能,自然语言处理等领域国际重要会议及期刊(如ACL, EMNLP, AAAI, IJCAI, JAIR等)上发表论文10余篇。
张伟男,哈尔滨工业大学计算机学院社会计算与信息检索研究中心,博士/讲师/硕导。在ACL、AAAI、IJCAI及IEEE TKD
...
精彩内容:
前言Neural Network Methods for Natural Language Processing自然语言处理(Natural Language Processing,NLP)这一术语指的是对人类语言进行自动的计算处理。它包括两类算法:将人类产生的文本作为输入;产生看上去很自然的文本作为输出。由于人类产生的文本每年都在不停增加,同时人们期望使用人类的语言与计算机进行交流,因此人们对该类算法的需求在不断增加。然而,由于人类语言固有的歧义、不断变化以及病态性(not well defined),导致自然语言处理极具挑战性。    自然语言本质上是符号化的,因此人们最开始也尝试使用符号化的方式处理语言,即基于逻辑、规则以及本体的方法。然而,自然语言具有很强的歧义性和可变性,这就需要使用统计的方法。事实上,如今自然语言处理的主流方法都是基于统计机器学习(Statistical Machine Learning)的。过去十几年,核心的NLP技术都是以有监督学习的线性模型为主导,核心算法如感知机、线性支持向量机、逻辑回归等都是在非常高维和稀疏的特征向量上进行训练的。    2014年左右,该领域开始看到一些从基于稀疏向量的线性模型向基于稠密向量的非线性神经网络模型(Nonlinear Neural Network Model)切换的成功案例。一些神经网络技术是线性模型的简单推广,可用于替代线性分类器。另一些神经网络技术更进一步提出了新的建模方法,这需要改变现有的思维方式。特别是一系列基于循环神经网络(Recurrent Neural Network,RNN)的方法,减轻了对马尔可夫假设的依赖性,这曾普遍用于序列模型中。循环神经网络可以处理任意长度的序列数据,并生成有效的特征抽取器。这些进展导致了语言模型、自动机器翻译以及其他一些应用的突破。    虽然神经网络方法很强大,
...
内容简介:
约阿夫·戈尔德贝格著的《基于深度学习的自然语言处理/智能科学与技术丛书》重点介绍了神经网络模型在自然语言处理中的应用。首先介绍有监督的机器学习和前馈神经网络的基本知识,如何将机器学习方法应用在自然语言处理中,以及词向量表示(而不是符号表示)的应用。然后介绍更多专门的神经网络结构,包括一维卷积神经网络、循环神经网络、条件生成模型和基于注意力的模型。后,讨论树形网络、结构化预测以及多任务学习的前景。
目录:
译者序 
前言 
致谢 
第1章引言 
1.1自然语言处理的挑战 
1.2神经网络和深度学习 
1.3自然语言处理中的深度学习 
1.4本书的覆盖面和组织结构 
1.5本书未覆盖的内容 
1.6术语 
1.7数学符号 
注释 
第一部分有监督分类与前馈神经网络 
第2章学习基础与线性模型 
2.1有监督学习和参数化函数 
2.2训练集、测试集和验证集 
2.3线性模型 
2.3.1二分类 
2.3.2对数线性二分类 
2.3.3多分类 
2.4表示 
2.5独热和稠密向量表示 
2.6对数线性多分类 
2.7训练和很优化 
2.7.1损失函数 
2.7.2正则化 
2.8基于梯度的很优化 
2.8.1随机梯度下降 
2.8.2实例 
2.8.3其他训练方法 
第3章从线性模型到多层感知器 
3.1线性模型的局限性:异或问题 
3.2非线性输入转换 
3.3核方法 
3.4可训练的映射函数 
第4章前馈神经网络 
4.1一个关于大脑的比喻 
4.2数学表示 
4.3表达能力 
4.4常见的非线性函数 
4.5损失函数 
4.6正则化与丢弃法 
4.7相似和距离层 
4.8嵌入层 
第5章神经网络训练 
5.1计算图的抽象概念 
5.1
...

   相关推荐   

—  没有更多了  —

以下为对购买帮助不大的评价

全新正版 提供发票
此功能需要访问孔网APP才能使用
暂时不用
打开孔网APP