• PYTHON数据预处理技术与实践
21年品牌 40万+商家 超1.5亿件商品

PYTHON数据预处理技术与实践

书籍均为精品二手图书,出库会经过高温消毒,书籍上架都会检测可保证正版,在线咨询商品可自动为您显示当前库存!

13.5 2.0折 69 九品

仅1件

天津宝坻
认证卖家担保交易快速发货售后保障

作者白宁超;唐聃;文俊

出版社清华大学出版社

出版时间2019-12

版次1

装帧其他

货号1228292507188594511

上书时间2024-12-16

文天书社

已实名 已认证 进店 收藏店铺

   商品详情   

品相描述:九品
本店所售书籍均精品二手正版书书籍,严格审核品相为85品以上,出库会经过高温消毒,由于成本增加,所售书籍价格略高,每天下午2点前订单一般当天发出,最迟48小时内发出,二手书不保证100%没有任何笔记,有时会出现缺货现象(可在线咨询发送商品链接会自助显示当前实时库存,有库存再下单哦!),我们会第一时间告知您,感谢理解与支持。
图书标准信息
  • 作者 白宁超;唐聃;文俊
  • 出版社 清华大学出版社
  • 出版时间 2019-12
  • 版次 1
  • ISBN 9787302539711
  • 定价 69.00元
  • 装帧 其他
  • 开本 16开
  • 纸张 胶版纸
  • 页数 256页
  • 字数 99999千字
【内容简介】
本书基础理论和工程应用相结合,循序渐进地介绍了数据预处理的基本概念、基础知识、工具应用和相关案例,包括网络爬虫、数据抽取、数据清洗、数据集成、数据变换、数据向量化、数据规约等知识,书中针对每个知识点,都给出了丰富的教学实例和实现代码,*后,通过一个新闻文本分类的实际项目讲解了数据预处理技术在实际中的应用。 本书的特点是几乎涵盖了数据预处理的各种常用技术及主流工具应用,示例代码很丰富,适合于大数据从业者、AI技术开发人员以及高校大数据专业的学生使用。
【作者简介】
白宁超,大数据工程师,现任职于四川省计算机研究院,研究方向包括数据分析、自然语言处理和深度学习。主持和参与国家自然基金项目和四川省科技支撑计划项目多项,出版专著1部。

唐聃,教授,硕士生导师,成都信息工程大学软件工程学院院长,四川省学术和技术带头人后备人选。研究方向包括编码理论与人工智能,《自然语言处理理论与实战》一书作者。

文俊,硕士,大数据算法工程师,现任职于成都广播电视台橙视传媒大数据中心。曾以技术总监身份主持研发多个商业项目,负责公司核心算法模型构建。主要研究方向包括数据挖掘、自然语言处理、深度学习及云计算。
【目录】
目    录

第1章  概述 1

1.1  Python数据预处理 1

1.1.1  什么是数据预处理 1

1.1.2  为什么要做数据预处理 2

1.1.3  数据预处理的工作流程 2

1.1.4  数据预处理的应用场景 3

1.2  开发工具与环境 3

1.2.1  Anaconda介绍与安装 3

1.2.2  Sublime Text 7

1.3  实战案例:第一个中文分词程序 12

1.3.1  中文分词 12

1.3.2  实例介绍 14

1.3.3  结巴实现中文分词 14

1.4  本章小结 15

第2章  Python科学计算工具 16

2.1  NumPy 16

2.1.1  NumPy的安装和特点 16

2.1.2  NumPy数组 18

2.1.3  Numpy的数学函数 20

2.1.4  NumPy线性代数运算 22

2.1.5  NumPy IO操作 22

2.2  SciPy 23

2.2.1  SciPy的安装和特点 23

2.2.2  SciPy Linalg 25

2.2.3  SciPy文件操作 27

2.2.4  SciPy 插值 28

2.2.5  SciPy Ndimage 30

2.2.6  SciPy优化算法 33

2.3  Pandas 35

2.3.1  Pandas的安装和特点 36

2.3.2  Pandas的数据结构 36

2.3.3  Pandas的数据统计 39

2.3.4  Pandas处理丢失值 41

2.3.5  Pandas处理稀疏数据 45

2.3.6  Pandas的文件操作 46

2.3.7  Pandas 可视化 48

2.4  本章小结 54

第3章  数据采集与存储 55

3.1  数据与数据采集 55

3.2  数据类型与采集方法 56

3.2.1  结构化数据 56

3.2.2  半结构化数据 56

3.2.3  非结构化数据 57

3.3  网络爬虫技术 57

3.3.1  前置条件 58

3.3.2  Scrapy 技术原理 58

3.3.3  Scrapy新建爬虫项目 59

3.3.4  爬取网站内容 61

3.4  爬取数据以JSON格式进行存储 69

3.5  爬取数据的MySQL存储 71

3.5.1  MySQL与Navicat部署 71

3.5.2  MySQL存储爬虫数据 72

3.6  网络爬虫技术扩展 75

3.7  本章小结 76

第4章  文本信息抽取 77

4.1  文本抽取概述 77

4.2  文本抽取问题 78

4.3  Pywin32抽取文本信息 79

4.3.1  Pywin32介绍 79

4.3.2  抽取Word文档文本信息 80

4.3.3  抽取PDF文档文本信息 83

4.3.4  打造灵活的文本抽取工具 84

4.4  文本批量编码 86

4.5  实战案例:遍历文件批量抽取新闻文本内容 86

4.5.1  递归读取文件 87

4.5.2  遍历抽取新闻文本 88

4.6  本章小结 91

第5章  文本数据清洗 92

5.1  新闻语料的准备 92

5.2  高效读取文件 93

5.2.1  递归遍历读取新闻 94

5.2.2  yield生成器 95

5.2.3  高效遍历读取新闻 97

5.3  通过正则表达式来清洗文本数据 98

5.3.1  正则表达式 98

5.3.2  清洗文本数据 100

5.4  清洗HTML网页数据 102

5.5  简繁字体转换 104

5.6  实战案例:批量新闻文本数据清洗 106

5.6.1  高效读取文件内容 106

5.6.2  抽样处理文件 107

5.6.3  通过正则表达式批量清洗文件 108

5.7  本章小结 109

第6章  中文分词技术 110

6.1  中文分词简介 110

6.1.1  中文分词概述 110

6.1.2  常见中文分词方法 111

6.2  结巴分词精讲 112

6.2.1  结巴分词的特点 112

6.2.2  结巴分词的安装 112

6.2.3  结巴分词核心方法 112

6.2.4  结巴中文分词的基本操作 113

6.2.5  自定义分词词典 114

6.2.6  关键词提取 115

6.2.7  词性标注 116

6.3  HanLP分词精讲 117

6.3.1  JPype1的安装 117

6.3.2  调用HanLP的Java包 117

6.3.3  HanLP分词 118

6.3.4  HanLP实现自定义分词 120

6.3.5  命名实体识别与词性标注 120

6.3.6  HanLP实现关键词抽取 121

6.3.7  HanLP实现自动摘要 121

6.4  自定义去除停用词 122

6.4.1  以正则表达式对文本信息进行清洗 122

6.4.2  结巴中文分词词性解读 124

6.4.3  根据词性规则构建自定义停用词 126

6.5  词频统计 126

6.5.1  NLTK介绍与安装 126

6.5.2  统计新闻文本词频 128

6.5.3  统计特定词频和次数 129

6.5.4  特征词的频率分布表 129

6.5.5  频率分布图与频率累计分布图 130

6.5.6  基于Counter的词频统计 131

6.6  自定义去高低词频 132

6.7  自定义规则提取特征词 133

6.8  实战案例:新闻文本分词处理 134

6.9  本章小结 135

第7章  文本特征向量化 136

7.1  解析数据文件 136

7.2  处理缺失值 138

7.2.1  什么是数据缺失值 138

7.2.2  均值法处理数据缺失值 139

7.2.3  Pandas 处理缺失值 141

7.3  数据的归一化处理 143

7.3.1  不均衡数据分析 143

7.3.2  归一化的原理 144

7.3.3  归一化的优点 145

7.4  特征词转文本向量 146

7.5  词频-逆词频(TF-IDF) 147

7.6  词集模型与词袋模型 148

7.7  实战案例:新闻文本特征向量化 153

7.8  本章小结 154

第8章  Gensim文本向量化 155

8.1  Gensim的特性和核心概念 155

8.2  Gensim构建语料词典 156

8.3  Gensim统计词频特征 158

8.4  Gensim计算TF-IDF 158

8.5  Gensim实现主题模型 160

8.5.1  主题模型 160

8.5.2  潜在语义分析(LSA) 161

8.5.3  隐含狄利克雷分布(LDA) 164

8.5.4  LDA的模型实现 166

8.5.5  随机映射(RP) 167

8.6  实战案例:Gensim实现新闻文本特征向量化 169

8.6.1  参数设置 169

8.6.2  生成词典模型 170

8.6.3  生成TF-IDF模型 172

8.7  本章小结 173

第9章  PCA降维技术 174

9.1  什么是降维 174

9.2  PCA概述 175

9.3  PCA应用场景 177

9.4  PCA的算法实现 178

9.4.1  准备数据 178

9.4.2  PCA数据降维 179

9.4.3  高维向低维数据映射 181

9.5  实战案例:PCA技术实现新闻文本特征降维 182

9.5.1  加载新闻数据 182

9.5.2  前N个主成分特征 184

9.5.3  PCA新闻特征降维可视化 186

9.6  本章小结 187

第10章  数据可视化 188

10.1  Matplotlib概述 188

10.1.1  认识 Matplotlib 188

10.1.2  Matplotlib的架构 190

10.2  Matplotlib绘制折线图 193

10.2.1  折线图的应用场景 193

10.2.2  折线图的绘制示例 193

10.3  Matplotlib绘制散点图 195

10.3.1  散点图的应用场景 195

10.3.2  散点图的绘制示例 195

10.4  Matplotlib绘制直方图 197

10.4.1  直方图的应用场景 197

10.4.2  直方图的绘制示例 197

10.5  练习:Matplotlib绘制气温图 198

10.6  练习:Matplotlib绘制三维图 200

10.6.1  练习1:绘制三维梯度下降图 200

10.6.2  练习2:绘制三维散点图 201

10.7  本章小结 203

第11章  竞赛神器XGBoost 204

11.1  XGBoost概述 204

11.1.1  认识XGBoost 204

11.1.2  XGBoost的应用场景 205

11.2  XGBoost的优点 206

11.3  使用XGBoost预测毒蘑菇 206

11.3.1  XGBoost的开发环境及安装 206

11.3.2  数据准备 207

11.3.3  参数设置 207

11.3.4  模型训练 208

11.3.5  可视化特征排名 210

11.4  XGBoost优化调参 210

11.4.1  参数解读 211

11.4.2  调参原则 214

11.4.3  调参技巧 215

11.5  预测糖尿病患者 215

11.5.1  数据准备 215

11.5.2  预测器模型构建 216

11.5.3  调参提高预测器的性能 220

11.6  本章小结 228

第12章  XGBoost实现新闻文本分类 229

12.1  文本分类概述 229

12.2  文本分类的原理 230

12.2.1  文本分类的数学描述 230

12.2.2  文本分类的形式化描述 231

12.3  分类模型评估 231

12.4  数据预处理 233

12.4.1  通用的类库 234

12.4.2  阶段1:生成词典 236

12.4.3  阶段2:词典向量化TF-IDF 238

12.4.4  阶段3:生成主题模型 240

12.5  XGBoost分类器 243

12.6  新闻文本分类应用 248

12.7  本章小结 251

参考文献 252

 
点击展开 点击收起

   相关推荐   

—  没有更多了  —

以下为对购买帮助不大的评价

本店所售书籍均精品二手正版书书籍,严格审核品相为85品以上,出库会经过高温消毒,由于成本增加,所售书籍价格略高,每天下午2点前订单一般当天发出,最迟48小时内发出,二手书不保证100%没有任何笔记,有时会出现缺货现象(可在线咨询发送商品链接会自助显示当前实时库存,有库存再下单哦!),我们会第一时间告知您,感谢理解与支持。
此功能需要访问孔网APP才能使用
暂时不用
打开孔网APP