• 自己动手写网络爬虫
图书条目标准图
21年品牌 40万+商家 超1.5亿件商品

自己动手写网络爬虫

下午5点前订单,当日发货!超时赔付

7.96 1.6折 49 九五品

库存3件

四川成都
认证卖家担保交易快速发货售后保障

作者罗刚 著

出版社清华大学出版社

出版时间2016-08

版次1

装帧平装

货号9787302442646013

上书时间2024-10-28

才华有限

四年老店
已实名 已认证 进店 收藏店铺

   商品详情   

品相描述:九五品
图书标准信息
  • 作者 罗刚 著
  • 出版社 清华大学出版社
  • 出版时间 2016-08
  • 版次 1
  • ISBN 9787302442646
  • 定价 49.00元
  • 装帧 平装
  • 开本 16开
  • 纸张 胶版纸
  • 页数 352页
  • 字数 535千字
  • 正文语种 简体中文
【内容简介】

  本书介绍了网络爬虫开发中的关键问题与Java实现。主要包括从互联网获取信息与提取信息和对Web信息挖掘等内容。本书在介绍基本原理的同时注重辅以具体代码实现来帮助读者加深理解,书中部分代码甚至可以直接使用。

 

  本书适用于有Java程序设计基础的开发人员。同时也可以作为计算机相关专业本科生或研究生的参考教程。

 


【作者简介】

  罗刚,计算机软件硕士,毕业于吉林工业大学。2005年创立北京盈智星科技发展有限公司,2008年联合创立上海数聚软件公司。猎兔搜索创始人,当前猎兔搜索在北京、上海以及石家庄均设有研发部。他带领猎兔搜索技术开发团队先后开发出猎兔中文分词系统、猎兔文本挖掘系统,智能垂直搜索系统以及网络信息监测系统等,实现互联网信息的采集、过滤、搜索和实时监测,其开发的搜索软件日用户访问量万次以上。

【目录】

第1篇 自己动手抓取数据

 

第1章 全面剖析网络爬虫 3

 

1.1 抓取网页 4

 

1.1.1 深入理解URL 4

 

1.1.2 通过指定的URL抓取

 

网页内容 6

 

1.1.3 Java网页抓取示例 8

 

1.1.4 处理HTTP状态码 10

 

1.2 宽度优先爬虫和带偏好的爬虫 12

 

1.2.1 图的宽度优先遍历 12

 

1.2.2 宽度优先遍历互联网 13

 

1.2.3 Java宽度优先爬虫示例 15

 

1.2.4 带偏好的爬虫 22

 

1.2.5 Java带偏好的爬虫示例 23

 

1.3 设计爬虫队列 24

 

1.3.1 爬虫队列 24

 

1.3.2 使用Berkeley DB构建爬虫

 

队列 29

 

1.3.3 使用Berkeley DB 构建爬虫

 

队列示例 30

 

1.3.4 使用布隆过滤器构建

 

Visited表 36

 

1.3.5 详解Heritrix爬虫队列 39

 

1.4 设计爬虫架构 46

 

1.4.1 爬虫架构 46

 

1.4.2 设计并行爬虫架构 47

 

1.4.3 详解Heritrix爬虫架构 52

 

1.5 使用多线程技术提升爬虫性能 55

 

1.5.1 详解Java多线程 55

 

1.5.2 爬虫中的多线程 59

 

1.5.3 一个简单的多线程爬虫实现 60

 

1.5.4 详解Heritrix多线程结构 61

 

本章小结 64

 

第2章 分布式爬虫 69

 

2.1 设计分布式爬虫 70

 

2.1.1 分布式与云计算 70

 

2.1.2 分布式与云计算技术在

 

爬虫中的应用--浅析

 

Google的云计算架构 72

 

2.2 分布式存储 72

 

2.2.1 从Ralation_DB到key/value

 

存储 72

 

2.2.2 Consistent Hash算法 74

 

2.2.3 Consistent Hash代码实现 79

 

2.3 Google的成功之道--GFS 80

 

2.3.1 GFS详解 80

 

2.3.2 开源GFS--HDFS 84

 

2.4 Google网页存储秘诀--BigTable 88

 

2.4.1 详解BigTable 88

 

2.4.2 开源BigTable-HBase 93

 

2.5 Google的成功之道--

 

MapReduce算法 98

 

2.5.1 详解MapReduce算法 100

 

2.5.2 MapReduce容错处理 101

 

2.5.3 MapReduce实现架构 102

 

2.5.4 Hadoop中的MapReduce

 

简介 104

 

2.5.5 wordCount例子的实现 105

 

2.6 Nutch中的分布式 109

 

2.6.1 Nutch爬虫详解 109

 

2.6.2 Nutch中的分布式 116

 

本章小结 118

 

第3章 爬虫的"方方面面" 121

 

3.1 爬虫中的"黑洞" 122

 

3.2 主题爬虫和限定爬虫 122

 

3.2.1 理解主题爬虫 122

 

3.2.2 Java主题爬虫 128

 

3.2.3 理解限定爬虫 130

 

3.2.4 Java限定爬虫示例 136

 

3.3 有"道德"的爬虫 152

 

本章小结 156

 

第2篇 自己动手抽取Web内容

 

第4章 "处理"HTML页面 159

 

4.1 征服正则表达式 160

 

4.1.1 学习正则表达式 160

 

4.1.2 Java正则表达式 163

 

4.2 抽取HTML正文 169

 

4.2.1 了解Jsoup 169

 

4.2.2 使用正则表达式抽取示例 173

 

4.3 抽取正文 177

 

4.4 从JavaScript中抽取信息 193

 

4.4.1 JavaScript抽取方法 193

 

4.4.2 JavaScript抽取示例 195

 

本章小结 197

 

第5章 非HTML正文抽取 199

 

5.1 抽取PDF文件 200

 

5.1.1 学习PDFBox 200

 

5.1.2 使用PDFBox抽取示例 204

 

5.1.3 提取PDF文件标题 205

 

5.1.4 处理PDF格式的公文 206

 

5.2 抽取Office文档 211

 

5.2.1 学习POI 211

 

5.2.2 使用POI抽取Word示例 211

 

5.2.3 使用POI抽取PPT 示例 213

 

5.2.4 使用POI抽取Excel示例 214

 

5.3 抽取RTF 217

 

5.3.1 开源RTF文件解析器 217

 

5.3.2 实现一个RTF文件解析器 217

 

5.3.3 解析RTF示例 222

 

本章小结 227

 

第6章 多媒体抽取 229

 

6.1 视频抽取 230

 

6.1.1 抽取视频关键帧 230

 

6.1.2 Java视频处理框架 231

 

6.1.3 Java视频抽取示例 235

 

6.2 音频抽取 247

 

6.2.1 抽取音频 248

 

6.2.2 Java音频抽取技术 252

 

本章小结 254

 

第7章 去掉网页中的"噪声" 255

 

7.1 "噪声"对网页的影响 256

 

7.2 利用"统计学"消除"噪声" 257

 

7.2.1 网站风格树 260

 

7.2.2 "统计学去噪"的

 

Java实现 268

 

7.3 利用"视觉"消除"噪声" 272

 

7.3.1 "视觉"与"噪声" 272

 

7.3.2 "视觉去噪"的Java实现 273

 

本章小结 277

 

第3篇 自己动手挖掘Web数据

 

第8章 分析Web图 281

 

8.1 存储Web"图" 282

 

8.2 利用Web"图"分析链接 291

 

8.3 Google的秘密--PageRank 291

 

8.3.1 深入理解PageRank算法 291

 

8.3.2 PageRank算法的Java实现 295

 

8.3.3 应用PageRank进行链接

 

分析 298

 

8.4 PageRank 的兄弟HITS 299

 

8.4.1 深入理解HITS算法 299

 

8.4.2 HITS算法的Java实现 300

 

8.4.3 应用HITS进行链接分析 311

 

8.5 PageRank与HITS比较 312

 

本章小结 313

 

第9章 去掉"重复"的文档 315

 

9.1 何为"重复"的文档 316

 

9.2 利用"语义指纹"排重 316

 

9.2.1 理解"语义指纹" 318

 

9.2.2 "语义指纹"排重的

 

Java实现 319

 

9.3 SimHash排重 319

 

9.3.1 理解SimHash 320

 

9.3.2 SimHash排重的Java实现 321

 

9.4 分布式文档排重 328

 

本章小结 329

 

第10章 分类与聚类的应用 331

 

10.1 网页分类 332

 

10.1.1 收集语料库 332

 

10.1.2 选取网页的"特征" 333

 

10.1.3 使用支持向量机进行

 

网页分类 336

 

10.1.4 利用URL地址进行

 

网页分类 338

 

10.1.5 使用AdaBoost进行

 

网页分类 338

 

10.2 网页聚类 341

 

10.2.1 深入理解DBScan算法 341

 

10.2.2 使用DBScan算法聚类

 

实例 342

 

本章小结 344

 


点击展开 点击收起

—  没有更多了  —

以下为对购买帮助不大的评价

此功能需要访问孔网APP才能使用
暂时不用
打开孔网APP