• 零基础学python网络爬虫 升级版 网络技术 作者 新华正版
21年品牌 40万+商家 超1.5亿件商品

零基础学python网络爬虫 升级版 网络技术 作者 新华正版

67.2 6.8折 99 全新

库存34件

河北保定
认证卖家担保交易快速发货售后保障

作者作者

出版社电子工业出版社

ISBN9787121477928

出版时间2024-05

版次1

装帧平装

开本16

页数228页

字数444.6千字

定价99元

货号xhwx_1203270816

上书时间2024-06-08

浩子书屋

九年老店
已实名 已认证 进店 收藏店铺

   商品详情   

品相描述:全新
正版特价新书
商品描述
目录:

 章 初识网络爬虫
e 学码:5 个
1.1 网络爬虫概述
1.2 网络爬虫的分类
1.3 网络爬虫的基本
1.4 windows下搭建开发环境
1.4.1 安装anaconda
1.4.2 pycharm的下载与安装
1.4.3 配置pycharm
1.4.4 测试pycharm
第 2 章 请求模块 urllib
精彩实例:22 个 e 学码:5 个
2.1 urllib简介
2.2 使用urlopen()方法发送请求
2.2.1 发送get请求
 实例2.1 演示常用的方法与属
2.2.2 发送t请求
 实例2.2 发送t请求
2.2.3 设置网络超时
 实例2.3 处理网络超时
2.3 复杂的网络请求
2.3.1 设置请求头
 实例2.4 设置请求头
2.3.2 cookie的获取与设置
 实例2.5 模拟登录
 实例2.6 获取cookie
 实例2.7 保存cookie文件
 实例2.8 使用cookie信息登录并获取登录后页面中的信息
2.3.3 设置代理ip地址

 实例2.9 设置代理ip地址
2.4 异常处理
 实例2.10 处理urlerror异常
 实例2.11 使用error类捕获异常
 实例2.12 双重异常的捕获
2.5 解析
2.5.1 拆分url
 实例2.13 使用urlparse()方法拆分url
 实例2.14 使用urlsplit()方法拆分url
2.5.2 组合url
 实例2.15 使用urlunparse()方法组合url
 实例2.16 使用urlunsplit()方法组合url
2.5.3 连接url
 实例2.17 使用urljoin()方法连接url
2.5.4 url的编码与解码
 实例2.18 使用urlencode()方法编码请求
参数
 实例2.19 使用quote()方法编码字符串
参数
 实例2.20 使用unquote()方法解码请求
参数
2.5.5 url参数的转换
 实例2.21 使用parse_qs()方法将参数转换
为字典类型
 实例2.22 使用parse_qsl()方法将参数转换为元组所组成的列表
第 3 章 请求模块 requests
精彩实例:13 个 e 学码:6 个
3.1 请求方式
3.1.1 get请求
 实例3.1 实现不带参数的get网络请求
3.1.2 对响应结果进行utf-8编码
 实例3.2 获取请求地址所对应的网页源码
3.1.3 爬取二进制数据
 实例3.3 下载某首页中的logo图片
3.1.4 get(带参)请求
3.1.5 t请求
 实例3.4 实现t请求
3.2 复杂的网络请求
3.2.1 添加请求头
 实例3.5 添加请求头
3.2.2 验证cookie
 实例3.6 通过验证cookie模拟网页登录
3.2.3 会话请求
 实例3.7 实现会话请求
3.2.4 验证请求
 实例3.8 验证请求
3.2.5 网络超时与异常
 实例3.9 演示网络超时与异常
 实例3.10 识别网络异常的分类
3.2.6 上传文件
 实例3.11 上传图片文件
3.3 代理服务
3.3.1 代理的应用
 实例3.12 通过代理发送请求
3.3.2 获取费的代理ip地址
3.3.3 检测代理ip地址是否有效
 实例3.13 检测代理ip地址是否有效
第 4 章 网络请求模块
精彩实例:1 个 e 学码:5 个
4.1 requests-cache的安装与测试
4.2 缓存的应用
4.3 强大的requests-html模块
4.3.1 使用requests-html实现网络请求. 51 4.3.2 数据的提取
 实例4.1 爬取即时新闻

第 5 章 正则表达式

精彩实例:8 个 e 学码:2 个
5.1 使用search()方法匹配字符串
5.1.1 获取个指定字符开头的字符串
 实例5.1 搜索个“mr_”开头的字符串
5.1.2 可选匹配
 实例5.2 可选匹配字符串中的内容
5.1.3 匹配字符串边界
 实例5.3 使用“\b”匹配字符串的边界
5.2 使用findall()方法匹配字符串
5.2.1 匹配所有指定字符开头的字符串
 实例5.4 匹配所有以“mr_”开头的字符串
5.2.2 贪婪匹配
 实例5.5 使用“.*”实现贪婪匹配字符串
5.2.3 非贪婪匹配
 实例5.6 使用“.*?”实现非贪婪匹配字符串
5.3 字符串处理
5.3.1 替换字符串
 实例5.7 使用sub()方法替换字符串
5.3.2 分割字符串
 实例5.8 使用split()方法分割字符串.
5.4 案例:爬取某音乐热歌榜
5.4.1 分析数据
5.4.2 实现爬虫
第 6 章 xpath 解析
精彩实例:15 个 e 学码:2 个
6.1 xpath概述
6.2 xpath的解析作
6.2.1 解析html
 实例6.1 解析本地的html文件
 实例6.2 解析字符串类型的html代码
 实例6.3 解析服务器返回的html代码
6.2.2 获取所有节点
 实例6.4 获取html代码的所有节点
6.2.3 获取子节点
 实例6.5 获取一个节点中的子节点
 实例6.6 获取子孙节点
6.2.4 获取父节点
 实例6.7 获取一个节点的父节点
6.2.5 获取文本
 实例6.8 获取html代码中的文本
6.2.6 属的单值匹配
 实例6.9 使用“[@. ]”实现节点属的
匹配
 实例6.10 属多值匹配
 实例6.11 一个节点中多个属的匹配.
6.2.7 获取属
 实例6.12 获取属所对应的值
6.2.8 按序获取属值
 实例6.13 使用索引按序获取属对应的值
6.2.9 使用节点轴获取节点内容
 实例6.14 使用节点轴的方式获取节点内容
6.3 案例:爬取某电影top250
6.3.1 分析请求地址
6.3.2 分析信息位置
6.3.3 爬虫代码的实现
 实例6.15 编写爬取某电影
top250的代码
第 7 章 解析数据的 beautiful soup 模块82
精彩实例:13 个 e 学码:3 个
7.1 使用beautiful soup解析数据
7.1.1 beautiful soup的安装
7.1.2 解析器
7.1.3 beautiful soup的简单应用
 实例7.1 解析html代码
7.2 获取节点内容
7.2.1 获取节点对应的代码
 实例7.2 获取节点对应的代码
7.2.2 获取节点属
 实例7.3 获取节点属

7.2.3 获取节点包含的文本内容
7.2.4 嵌套获取节点内容
 实例7.4 嵌套获取节点内容
7.2.5 关联获取
 实例7.5 获取子节点
 实例7.6 获取子孙节点
 实例7.7 获取父节点
 实例7.8 获取兄弟节点
7.3 使用方法获取内容
7.3.1 find_all()方法——获取所有符合
条件的内容
 实例7.9 find_all(name)方法通过节点名称获取内容
 实例7.10 find_all(attrs)方法通过指定属获取内容
 实例7.11 find_all(text)方法获取节点中的文本
7.3.2 find()方法——获取个匹配的节点内容
 实例7.12 获取个匹配的节点内容
7.3.3 其他方法
7.4 css选择器
 实例7.13 使用css选择器获取节点内容 97
第 8 章 多线程与多进程爬虫
精彩实例:11 个 e 学码:6 个
8.1 进程与线程
8.1.1 什么是进程
8.1.2 什么是线程
8.2 创建线程
8.2.1 使用threa模块创建线程
 实例8.1 使用threa模块创建线程
8.2.2 使用thread子类创建线程
 实例8.2 使用thread子类创建线程
8.3 线程间通信
 实例8.3 验证线程之间是否可以共享信息
8.3.1 什么是互斥锁
8.3.2 使用互斥锁
 实例8.4 使用多线程的互斥锁
8.3.3 使用queue在线程间通信
 实例8.5 使用queue在线程间通信
8.4 创建进程的常用方式
8.4.1 使用multiprocessing模块创建进程
 实例8.6 演示process类的方法和属的使用
8.4.2 使用process子类创建进程
 实例8.7 使用process子类创建多个进程
8.4.3 使用pool进程池创建进程
 实例8.8 使用进程池创建多进程
8.5 进程间通信
 实例8.9 验证进程之间能否直接共享信息
8.5.1 队列简介
8.5.2 多进程队列的使用
 实例8.10 多进程队列的使用
8.5.3 使用队列在进程间通信
 实例8.11 使用队列在进程间通信
第 9 章 数据处理与存储
精彩实例:8 个 e 学码:7 个
9.1 数据处理
9.1.1 pandas数据结构
9.1.2 数据的增、删、改、查
9.1.3 nan数据处理
9.1.4 删除重复数据
9.2 文件的存取
9.2.1 txt基本文件作
 实例9.1 txt文件存储
 实例9.2 读取message.txt文件中的
前9个字符
 实例9.3 从文件的1个字符开始
读取8个字符
 实例9.4 读取一行
 实例9.5 读取行
9.2.2 存取csv文件
9.2.3 存取excel文件
9.3 sqlite数据库
9.3.1 创建数据库文件
9.3.2 作sqlite
9.4 mysql数据库

9.4.2 安装mysql服务器
 实例9.6 连接数据库
 实例9.7 创建数据表
 实例9.8 作数据表
0 章 app 抓包工具
e 学码:6 个
10.1 charles工具的下载与安装
10.2 ssl的安装
10.2.1 安装pc端
10.2.2 设置代理
10.2.3 配置网络
10.2.4 安装手机端
1 章 识别验证码
精彩实例:4 个 e 学码:5 个
11.1 字符验证码
11.1.1 搭建ocr环境
11.1.2 下载验证码图片
 实例11.1 下载验证码图片
11.1.3 识别验证码
 实例11.2 识别验证码
11.2 第三方验证码识别
 实例11.3 第三方打码台
11.3 滑动拼图验证码
 实例11.4 滑动拼图验证码
2 章 scrapy 爬虫框架
精彩实例:8 个 e 学码:8 个
12.1 了解scrapy爬虫框架
12.2 scrapy的基本应用
12.2.1 创建scrapy项目
12.2.2 创建爬虫
 实例12.1 爬取网页代码并保存html
文件
12.2.3 获取数据
 实例12.2 使用xpath表达式获取多条信息
 实例12.3 翻页提取数据
 实例12.4 包装结构化数据
12.2.4 将爬取的数据保存为多种格式的
文件
12.3 编写item pipeline
12.3.1 item pipeline的核心方法
12.3.2 将信息存储到数据库
 实例12.5 将数据存储到数据库
12.4 自定义中间件
12.4.1 设置请求头
 实例12.6 设置请求头
12.4.2 设置cookie
12.4.3 设置代理ip地址
 实例12.7 代理中间件
12.5 文件下载
 实例12.8 下载手机商品图片
3 章 爬取编程 e 学网
精彩实例:8 个 e 学码:8 个
13.1 案例效果预览
13.2 案例准备
13.3 业务流程

13.4 实现过程
13.4.1 查找页面
13.4.2 分析地址
13.4.3 实现下载
4 章 爬取某的手机数据
14.1 案例效果预览
14.2 案例准备
14.3 业务流程
14.4 实现过程
14.4.1 分析手机主页中的每页地址
14.4.2 分析每个手机的详情页地址
14.4.3 确认详情页手机数据的位置
14.4.4 创建mysql数据表
14.4.5 编写爬虫程序
5 章 爬取北、上、广、深租房信息
15.1 案例效果预览
15.2 案例准备
15.3 业务流程
15.4 实现过程
15.4.1 获取租房信息页码
15.4.2 确认数据所在的标签位置
15.4.3 编写爬虫程序提取数据

内容简介:

零基础学python网络爬虫(升级版)一书适用于 python 爬虫入门学的读者,书中全面介绍了使用 python进行网络爬虫开发的入门知识,本书从学与应用的角度出发,帮助读者快速掌握网络爬虫的各项技能。全书共 17 章,包括初识网络爬虫、了解 web 前端、多种网络请求模块、网页数据的多种解析方式、爬取动态渲染的信息、多线程与多进程爬虫、数据处理与存储、app 抓包工具、识别验证码、crapy 爬虫框架、crapyredi 分布式爬虫以及可视化爬虫:数据侦探项目。本书侧重爬虫技术的实战应用,包含典型应用示例、实用案例和项目,力求为读者打造一本学入门  应用  实践一体化的精彩的 python 网络爬虫图书。

—  没有更多了  —

以下为对购买帮助不大的评价

正版特价新书
此功能需要访问孔网APP才能使用
暂时不用
打开孔网APP