• 零基础学Python网络爬虫案例实战全流程详解 入门与提高篇
21年品牌 40万+商家 超1.5亿件商品

零基础学Python网络爬虫案例实战全流程详解 入门与提高篇

74.3 7.5折 99 全新

库存4件

安徽合肥
认证卖家担保交易快速发货售后保障

作者王宇韬吴子湛等

出版社机械工业出版社

ISBN9787111683681

出版时间2021-07

装帧平装

开本16开

定价99元

货号1202411644

上书时间2024-12-27

邺架书屋

已实名 已认证 进店 收藏店铺

   商品详情   

品相描述:全新
商品描述
目录
章Python基础

1.1Python快速上手

1.1.1安装Python

1.1.2编写个Python程序

1.1.3PyCharm的安装与使用

1.1.4JupyterNotebook的使用

1.2Python语法基础知识

1.2.1变量、行、缩进与注释

1.2.2数据类型:数字与字符串

1.2.3数据类型:列表与字典、元组与集合

1.2.4运算符

1.3Python语句

1.3.1if条件语句

1.3.2for循环语句

1.3.3while循环语句

1.3.4try/except异常处理语句

1.4函数与库

1.4.1函数的定义与调用

1.4.2函数的返回值与变量的作用域

1.4.3常用内置函数介绍

1.4.4库的导入与安装

课后习题

第2章爬虫步:获取网页源代码

2.1爬虫核心库1:Requests库

2.1.1如何查看网页源代码

2.1.2用Requests库获取网页源代码:百度新闻

2.1.3Requests库的“软肋”

2.2爬虫核心库2:Selenium库

2.2.1模拟浏览器及Selenium库的安装

2.2.2用Selenium库获取网页源代码:新浪财经股票信息

2.3网页结构分析

2.3.1网页结构基础

2.3.2网页结构进阶

课后习题

第3章爬虫第二步:数据解析与提取

3.1用正则表达式解析和提取数据

3.1.1正则表达式基础1:findall()函数

3.1.2正则表达式基础2:非贪婪匹配之“(.*?)”

3.1.3正则表达式基础3:非贪婪匹配之“.*?”

3.1.4正则表达式基础4:自动考虑换行的修饰符re.S

3.1.5正则表达式基础5:知识点补充

3.1.6案例实战:提取百度新闻的标题、网址、日期和来源

3.2用BeautifulSoup库解析和提取数据

3.2.1解析特定标签的网页元素

3.2.2解析特定属性的网页元素

3.2.3提取标签中的网址

3.2.4案例实战:新浪新闻标题和网址爬取

3.3百度新闻爬取进阶探索

3.3.1批量爬取多家公司的新闻

3.3.2将爬取结果保存为文本文件

3.3.3异常处理及24小时不间断爬取

3.3.4批量爬取多页内容

3.4证券日报网爬取实战

3.4.1用正则表达式爬取

3.4.2用BeautifulSoup库爬取

3.5中证网爬取实战

3.6新浪微博爬取实战

3.7上海证券交易所上市公司PDF文件下载

3.7.1用Requests库下载文件的基本方法

3.7.2初步尝试下载上海证券交易所上市公司PDF文件

3.8豆瓣电影Top250排行榜海报图片下载

3.8.1爬取单页

3.8.2爬取多页

课后习题

第4章爬虫神器Selenium库深度讲解

4.1Selenium库进阶知识

4.2新浪财经股票行情数据爬取

4.2.1用Selenium库爬取股票行情数据

4.2.2用新浪财经API爬取股票行情数据

4.3东方财富网数据爬取

4.3.1上市公司股吧帖子爬取

4.3.2上市公司新闻爬取

4.3.3上市公司研报PDF文件下载

4.4上海证券交易所问询函信息爬取及PDF文件下载

4.4.1批量下载单个页面上的PDF文件

4.4.2批量下载多个页面上的PDF文件

4.4.3汇总问询函信息并导出为Excel工作簿

4.5银行间拆借利率爬取

4.6雪球股票评论信息爬取

4.7京东商品评价信息爬取

4.7.1用Selenium库爬取

4.7.2用Requests库爬取

4.8淘宝天猫商品销量数据爬取

4.9Selenium库趣味案例:网页自动投票

课后习题

第5章数据处理与可视化

5.1数据清洗与优化技巧

5.1.1常用的数据清洗手段及日期格式的统一

5.1.2文本内容过滤——剔除噪声数据

5.1.3数据乱码问题处理

5.1.4数据爬后处理之舆情评分

5.2数据可视化分析——词云图绘制

5.2.1用jieba库实现中文分词

5.2.2用wordcloud库绘制词云图

5.2.3案例实战:新浪微博词云图绘制

课后习题

第6章数据结构化与数据存储

6.1数据结构化神器——pandas库

6.1.1用read_html()函数快速爬取网页表格数据

6.1.2pandas库在爬虫领域的核心代码知识

6.2新浪财经——资产负债表获取

6.3百度新闻——文本数据结构化

6.3.1将单家公司的新闻导出为Excel工作簿

6.3.2将多家公司的新闻导出为Excel工作簿

6.4百度爱企查——股权穿透研究

6.4.1单层股权结构爬取

6.4.2多层股权结构爬取

6.5天天基金网——股票型基金信息爬取

6.5.1爬取基金信息表格

6.5.2爬取基金的详情页面网址

6.6集思录——可转债信息爬取

6.7东方财富网——券商研报信息爬取

6.7.1爬取券商研报信息表格

6.7.2爬取研报的详情页面网址

6.8数据存储——MySQL快速入门

6.8.1MySQL的安装

6.8.2MySQL的基本操作

6.9用Python操控数据库

6.9.1用PyMySQL库操控数据库

6.9.2案例实战:百度新闻数据爬取与存储

6.9.3用pandas库操控数据库

课后习题

第7章Python多线程和多进程爬虫

7.1理解线程与进程

7.1.1计算机硬件结构基础知识

7.1.2线程与进程

7.1.3单线程、多线程与多进程

7.1.4爬虫任务中的多线程与多进程

7.2Python多线程爬虫编程实战

7.2.1Python多线程编程基础知识

7.2.2Python多线程编程进阶知识

7.2.3案例实战:多线程爬取百度新闻

7.3Python多进程爬虫编程实战

7.3.1Python多进程编程基础知识

7.3.2Python多进程编程进阶知识

7.3.3案例实战:多进程爬取百度新闻

课后习题

第8章IP代理使用技巧与实战

8.1结合Requests库使用IP代理

8.1.1IP代理基础知识

8.1.2IP代理的使用

8.2IP代理实战1:用Requests库爬取公众号文章

8.2.1直接用Requests库爬取

8.2.2添加IP代理进行爬取

8.2.3添加智能IP切换系统

8.3结合Selenium库使用IP代理

8.4IP代理实战2:用Selenium库爬取公众号文章

8.4.1直接用Selenium库爬取

8.4.2添加IP代理进行爬取

8.4.3添加智能IP切换系统

课后习题

后记

内容摘要
网络爬虫是当今获取数据不可或缺的重要手段。本书讲解了Python爬虫的基础知识和推荐技能,帮助零基础的读者快速入门并熟练使用爬虫。全书共8章。章讲解Python开发环境的安装与配置以及Python的基础语法知识。第2章讲解如何运用Requests库和Selenium库获取网页源代码。第3章讲解如何运用正则表达式和BeautifulSoup库解析和提取数据。第4章深入讲解Selenium库在商业实战中的进阶应用。第5讲解爬虫数据的处理与可视化。第6章讲解爬虫数据结构化利器pandas库,以及如何通过Python在MySQL数据库中读写数据。第7章讲解如何运用多线程和多进程技术提高爬虫效率。第8章讲解如何运用IP代理应对网站的反爬机制。本书对于编程新手来说很好友好,从Python基础到爬虫原理再到实战应用,循序渐进地帮助读者打好基础。对于有一定Python爬虫基础的读者,本书也针对实战中常见的疑点和难点提供了解决技巧。

   相关推荐   

—  没有更多了  —

以下为对购买帮助不大的评价

此功能需要访问孔网APP才能使用
暂时不用
打开孔网APP