• Python快乐编程:网络爬虫/21世纪高等学校计算机专业实用规划教材
图书条目标准图
21年品牌 40万+商家 超1.5亿件商品

Python快乐编程:网络爬虫/21世纪高等学校计算机专业实用规划教材

19.92 4.0折 49.8 全新

库存2件

北京朝阳
认证卖家担保交易快速发货售后保障

作者千锋教育高教产品研发部 编

出版社清华大学出版社

出版时间2019-09

版次1

装帧平装

上书时间2024-11-21

兴盈书屋

八年老店
已实名 已认证 进店 收藏店铺

   商品详情   

品相描述:全新
图书标准信息
  • 作者 千锋教育高教产品研发部 编
  • 出版社 清华大学出版社
  • 出版时间 2019-09
  • 版次 1
  • ISBN 9787302529125
  • 定价 49.80元
  • 装帧 平装
  • 开本 16开
  • 纸张 胶版纸
  • 页数 246页
  • 字数 100千字
【内容简介】
  随着网络技术的迅速发展,万维网成为大量信息的载体,如何有效地提取并利用这些信息成为一个巨大的挑战,网络爬虫应运而生。
  《Python快乐编程:网络爬虫/21世纪高等学校计算机专业实用规划教材》介绍了如何利用Python3.x来开发网络爬虫,并通过爬虫原理讲解以及Web前端基础知识代领读者入门,结合企业实战,让读者快速学会编写Python网络爬虫。
  《Python快乐编程:网络爬虫/21世纪高等学校计算机专业实用规划教材》适用于中等水平的Python开发人员、高等院校及培训学校的老师和学生。
  通过《Python快乐编程:网络爬虫/21世纪高等学校计算机专业实用规划教材》的学习可以轻松领会Python在网络爬虫、数据挖掘领域的精髓,可胜任Python网络爬虫工程师的工作以及完成各种网络爬虫项目的代码编写。
【作者简介】


胡耀文,清华大学出版社技术编审委员会委员,2009年参与国庆60周年官兵电子纪念册项目,cdn有名技术专家,博客浏览量超过1460350次,2012年7月 出版window ce 7开发实战详解,2013年5月出版window8开发指南,2014年2016年连续三年获得微软全球mvp有价值专家。                                                                                              尹成,于清华大学,微软全球拥有价值专家,软件架构师,cdn有名技术专家,微软清华大学联合实验室技术顾问,清华大学移动互联网技术协会顾问,清华大学oraclejava创始人,清华大学google技术俱乐部创始人 ,清华大学linux技术俱乐部创始人。精通javac/c,对于移动3g,语音技术,javaee信息安全大数据高并发都有丰富的开发经验。2010年著书viual c 2010开发指南,版权作为大陆的骄傲输湾新加坡,代表大陆c并台湾[45]  。2013年著
【目录】
第1章 Python网络爬虫入门
1.1 所需技能与Python版本
1.1.1 所需技术能力
1.1.2 选择Python的原因
1.1.3 选择Python 3.x的原因
1.2 初识网络爬虫
1.2.1 网络爬虫的概念
1.2.2 网络爬虫的应用
1.2.3 Robots协议
1.3 搜索引擎核心
1.4 快速爬取网页示例
1.5 本章小结
1.6 习题

第2章 爬虫基础知识
2.1 Cookie的使用
2.1.1 Cookie的概念
2.1.2 使用Cookiejar处理Cookie
2.2 正则表达式
2.2.1 正则表达式的概念
2.2.2 正则表达式详解
2.3 标记语言
2.4 Xpath
2.5 JSON
2.6 BeautifulSoup
2.6.1 安装BeautifulSoup
2.6.2 BeautifulSoup的使用
2.7 本章小结
2.8 习题

第3章 urllib与requests
3.1 urllib库
3.1.1 urllib库的概念
3.1.2 urllib库的使用
3.2 设置HTTP请求方法
3.2.1 GET请求实战
3.2.2 设置代理服务
3.3 异常处理
3.3.1 URLError异常处理
3.3.2 HTTPError异常处理
3.4 requests库
3.4.1 安装requests库
3.4.2 发送请求
3.4.3 响应接收
3.4.4 会话对象
3.5 本章小结
3.6 习题

第4章 网络爬虫实例
4.1 图片爬虫实例
4.2 链接爬虫实例
4.3 文字爬虫实例
4.4 微信文章爬虫
4.5 多线程爬虫及实例
4.6 本章小结
4.7 习题

第5章 数据处理
5.1 存储HTML正文内容
5.1.1 存储为JSON格式
5.1.2 存储为CSV格式
5.2 存储媒体文件
5.3 Email提醒
5.4 pymysql模块
5.5 本章小结
5.6 习题

第6章 数据库存储
6.1 SQLite
6.1.1 SQLite介绍
6.1.2 安装SQLite
6.1.3 Python与SQLite
6.1.4 创建SQLite表
6.1.5 添加SQLite表记录
6.1.6 查询SQLite表记录
6.1.7 更新SQLite表记录
6.1.8 删除SQLite表记录
6.2 MongoDB
6.2.1 MongoDB简介
6.2.2 MongoDB适用场景
6.2.3 MongoDB的安装
6.2.4 MongoDB基础
6.2.5 在Python中操作MongoDB
6.3 Redis
6.3.1 Redis简介
6.3.2 Redis适用场景
6.3.3 Redis的安装
6.3.4 Redis数据类型与操作
6.3.5 在Python中操作Redis
6.4 本章小结
6.5 习题

第7章 抓取动态网页内容
7.1 JavaScript简介
7.1.1 JS语言特性
7.1.2 JS简单示例
7.1.3 JavaScript库
7.1.4 Ajax简介
7.2 爬取动态网页的工具
7.2.1 Selenium库
7.2.2 PhantomJS浏览器
7.2.3 Firefox的headless模式
7.2.4 Selenium的选择器
7.2.5 Selenium等待方式
7.2.6 客户端重定向
7.3 爬取动态网页实例
7.4 本章小结
7.5 习题

第8章 浏览器伪装与定向爬取
8.1 浏览器伪装介绍
8.1.1 抓包工具Fiddler
8.1.2 浏览器伪装过程分析
8.1.3 浏览器伪装技术实战
8.2 定向爬虫
8.2.1 定向爬虫分析
8.2.2 定向爬虫实战
8.3 本章小结
8.4 习题

第9章 初探Scrapy爬虫框架
9.1 了解爬虫框架
9.1.1 初识Scrapy框架
9.1.2 初识Crawley框架
9.1.3 初识Portia框架
9.1.4 初识Newspaper框架
9.2 Scrapy介绍
9.2.1 安装Scrapy
9.2.2 Scrapy程序管理
9.2.3 Scrapy项目的目录结构
9.3 常用命令
9.3.1 Scrapy全局命令
9.3.2 Scrapy项目命令
9.3.3 Scrapy的Item对象
9.4 编写Spider程序
9.4.1 初识Spider
9.4.2 Spider文件参数传递
9.5 Spider反爬虫机制
9.6 本章小结
9.7 习题

第10章 深入Scrapy爬虫框架
10.1 Scrapy核心架构
10.2 Scrapy组件详解
10.3 Scrapy数据处理
10.3.1 Scrapy数据输出
10.3.2 Scrapy数据存储
10.4 Scrapy自动化爬取
10.4.1 创建项目并编写items.py
10.4.2 编写pipelines.py
10.4.3 修改settings.py
10.4.4 编写爬虫文件
10.4.5 执行自动化爬虫
10.5 CrawlSpider
10.5.1 创建CrawlSpider
10.5.2 LinkExtractor
10.5.3 CrawlSpider部分源代码分析
10.5.4 实例CrawlSpider
10.6 本章小结
10.7 习题

第11章 Scrapy实战项目
11.1 文章类项目
11.1.1 需求分析
11.1.2 实现思路
11.1.3 程序设计
11.1.4 请求分析
11.1.5 循环网址
11.1.6 爬虫运行
11.2 图片类项目
11.2.1 需求分析
11.2.2 实现思路
11.2.3 程序设计
11.2.4 项目实现
11.3 登录类项目
11.3.1 需求分析
11.3.2 实现思路
11.3.3 程序设计
11.3.4 项目实现
11.4 本章小结
11.5 习题

第12章 分布式爬虫
12.1 简单分布式爬虫
12.1.1 进程及进程间通信
12.1.2 简单分布式爬虫结构
12.1.3 控制节点
12.1.4 爬虫节点
12.2 Scrapy与分布式爬虫
12.2.1 Scrapy中集成Redis
12.2.2 MongoDB集群
12.3 Scrapy分布式爬虫实战
12.3.1 创建爬虫
12.3.2 定义Item
12.3.3 爬虫模块
12.3.4 编写Pipeline
12.3.5 修改Settings
12.3.6 运行项目
12.4 去重优化
12.5 本章小结
12.6 习题
点击展开 点击收起

   相关推荐   

—  没有更多了  —

以下为对购买帮助不大的评价

此功能需要访问孔网APP才能使用
暂时不用
打开孔网APP