• PySpark原理深入与编程实战
21年品牌 40万+商家 超1.5亿件商品

PySpark原理深入与编程实战

63.06 5.3折 119 九五品

仅1件

天津武清
认证卖家担保交易快速发货售后保障

作者辛立伟,辛雨桐

出版社清华大学出版社

ISBN9787302625971

出版时间2023-08

版次1

装帧平装

开本16开

纸张胶版纸

定价119元

上书时间2024-05-01

鲁是特

已实名 已认证 进店 收藏店铺

   商品详情   

品相描述:九五品
商品描述
基本信息
书名:PySpark原理深入与编程实战
定价:119.00元
作者:辛立伟,辛雨桐
出版社:清华大学出版社
出版日期:2023-08-01
ISBN:9787302625971
字数:
页码:
版次:
装帧:平装
开本:16开
商品重量:
编辑推荐
本书具有以下几个特点: (1) 面向零基础读者,知识点深浅适当,代码完整易懂。 (2) 内容全面系统,包括架构原理、开发环境及程序部署、流和批计算、综合项目案例等。 (3) 版本先进,所有代码均基于Spark 3.1.2和Python 3.7。 (4) 全书包含大量的示例代码讲解和完整项目案例。
内容提要
本书系统讲述Apache Spark/PySpark大数据计算平台的原理,以及如果将Apache PySpark应用于大数据的实时流处理、批处理等各个场景。通过原理深入学习和实践示例、案例的学习应用,使读者了解并掌握Apache Spark/PySpark的基本原理和技能,接近理论与实践的距离。 全书共分为8章,主要内容包括:Spark架构原理与集群搭建、开发和部署PySpark应用程序、PySpark核心编程、PySpark SQL、PySpark SQL高级分析、PySpark结构化流、PySpark结构化流高级处理、Spark大数据处理综合案例。本书源码全部在Apache Spark 3.1.2上调试成功,所有示例和案例均基于Python 3.x语言。 为降低读者学习大数据技术的门槛,本书除了提供了丰富的上机实践操作和范例程序详解之外,本书作者还为购买和使用本书的读者提供了搭建好的Hadoop、Hive数仓和PySpark大数据开发和学习环境。读者既可以参照本书的讲解自行搭建Hadoop和PySpark环境,也可直接使用作者提供的开始和学习环境,快速开始大数据和PySpark的学习。 本书系统讲解了Apache Spark/PySpark大数据计算平台的原理和流、批处理的开发实践,内容全面、实例丰富、可操作性强,做到了理论与实践相结合。本书适合大数据学习爱好者、想要入门Apache Spark/PySpark的读者作为入门和提高的技术参考书,也适合用作大中专院校大数据专业相关的学生和老师的教材或教学参考书。
目录
章 Spark架构原理与集群搭建(78min) ·· 11.1 Spark简介·11.2 Spark技术栈·31.2.1 Spark Core··41.2.2 Spark SQL··41.2.3 Spark Streaming和 Structured Streaming···51.2.4 Spark MLlib ···51.2.5 Spark GraphX·61.2.6 SparkR ···61.3 Spark和 PySpark架构原理 ···71.3.1 Spark集群和资源管理系统 ··71.3.2 Spark应用程序 ··71.3.3 Spark Driver和 Executor ···91.3.4 PySpark架构···101.4 Spark程序部署模式111.5 安装和配置 Spark集群···121.5.1 安装 Spark ···121.5.2 了解 Spark目录结构···131.5.3 配置 Spark/PySpark集群·141.5.4 验证 PySpark安装···151.6 配置 Spark历史服务器···171.6.1 历史服务器配置 ··171.6.2 启动 Spark历史服务器···191.7 使用 PySpark Shell进行交互式分析 ··201.7.1 运行模式 --master·201.7.2 启动和退出 PySpark Shell···211.7.3 PySpark Shell常用命令···231.7.4 SparkContext和 SparkSession ·231.7.5 Spark Web UI ···251.8 使用 spark-submit提交 PySpark应用程序·281.8.park-submit指令的各种参数说明·281.8.2 提交 pi.ipynb程序,计算圆周率 π值311.8.3 将 PySpark程序提交到 YARN集群上执行 ···32第 2章开发和部署 PySpark应用程序(80min)··· 342.1 使用 PyCharm开发 PySpark应用程序···342.1.1 准备数据文件 ··342.1.2 安装 PyCharm··352.1.3 创建一个新的 PyCharm项目··352.1.4 安装 PySpark包 ··362.1.5 创建 PySpark应用程序···392.1.6 部署到集群中运行 ··402.2 使用 Zeppelin进行交互式分析 ···412.2.1 下载 Zeppelin安装包··422.2.2 安装和配置 Zeppelin ···422.2.3 配置 Spark/PySpark解释器 ·442.2.4 创建和执行 Notebook文件·452.3 使用 Jupyter Notebook进行交互式分析 ·462.3.1 配置 PySpark Driver使用 Jupyter Notebook···472.3.2 使用 findSpark包49第 3章 PySpark核心编程(212min) · 513.1 理解数据抽象 RDD·513.2 RDD编程模型 533.2.1 单词计数应用程序 ··533.2.2 理解 SparkSession563.2.3 理解 SparkContext ···573.3 创建 RDD 583.3.1 将现有的集合并行化以创建 RDD··583.3.2 从存储系统读取数据集以创建 RDD··603.3.3 从已有的 RDD转换得到新的 RDD ···603.3.4 创建 RDD时指定分区数量 603.4 操作 RDD 613.4.1 RDD上的 Transformation和 Action ···623.4.2 RDD Transformation操作643.4.3 RDD Action操作·703.4.4 RDD上的描述性统计操作·733.5 Key-Value Pair RDD 743.5.1 创建 Pair RDD ·753.5.2 操作 Pair RDD ·763.5.3 关于 reduceByKey操作813.5.4 关于 aggregateByKey 操作···833.5.5 关于 combineByKey操作·87 3.6 持久化 RDD 903.6.1 缓存 RDD 903.6.2 RDD缓存策略 923.6.3 检查点 RDD 933.7 数据分区 ·943.7.1 获取和指定 RDD分区数 953.7.2 调整 RDD分区数963.7.3 内置数据分区器 ··973.7.4 自定义数据分区器 1013.7.5 避免不必要的 shuffling ·1023.7.6 基于数据分区的操作 1043.8 使用共享变量 1083.8.1 广播变量 1093.8.2 累加器 ··· 1143.9 PySpark RDD可视化 1163.10 PySpark RDD编程案例 ·· 1173.10.1 合并小文件 · 1173.10.2 二次排序实现 · 1193.10.3 Top N实现··1213.10.4 数据聚合计算 ·125 第 4章 PySpark SQL(初级) (163min)·1274.1 PySpark SQL数据抽象·1274.2 PySpark SQL编程模型·1294.3 程序入口 SparkSession··1324.4 PySpark SQL中的模式和对象··1344.4.1 模式···1344.4.2 列对象和行对象 1354.5 简单构造 DataFrame ·1364.5.1 简单创建单列和多列 DataFrame ··1374.5.2 从 RDD创建 DataFrame ···1404.5.3 读取外部数据源创建 DataFrame ··1444.6 操作 DataFrame ·1664.6.1 列的多种引用方式 1674.6.2 对 DataFrame执行 Transformation转换操作···1704.6.3 对 DataFrame执行 Action操作1844.6.4 对 DataFrame执行描述性统计操作 ·1854.6.5 提取 DataFrame Row中特定字段·1884.6.6 操作 DataFrame示例·1894.7 存储 DataFrame ·1914.7.1 写出 DataFrame ·191 4.7.2 存储模式 1944.7.3 控制 DataFrame的输出文件数量·1954.7.4 控制 DataFrame实现分区存储·1994.8 临时视图与 SQL查询···2014.8.1 在 PySpark程序中执行 SQL语句2014.8.2 注册临时视图并执行 SQL查询 ···2034.8.3 使用全局临时视图 2064.8.4 直接使用数据源注册临时视图 ·2084.8.5 查看和管理表目录 2094.9 缓存 DataFrame · 2114.9.1 缓存方法 2114.9.2 缓存策略 2134.9.3 缓存表 ···2144.10 PySpark SQL可视化···2144.10.1 PySpark DataFrame转换到 Pandas·2144.10.2 PySpark SQL DataFrame可视化 2184.11 PySpark SQL编程案例 ···2204.11.1 实现单词计数 ·2204.11.2 用户数据集分析 ·2224.11.3 航空公司航班数据集分析 ··224 第 5章 PySpark SQL(高级) (115min)·2345.1 PySpark SQL函数·2345.2 内置标量函数 2345.2.1 日期时间函数 2355.2.2 字符串函数 2395.2.3 数学计算函数 2435.2.4 集合元素处理函数 2445.2.5 其他函数 2485.2.6 函数应用示例 2525.2.7 PySpark 3数组函数···2555.3 聚合与透视函数 2645.3.1 聚合函数 2645.3.2 分组聚合 2715.3.3 数据透视 2745.4 高级分析函数 2775.4.1 使用多维聚合函数 2775.4.2 使用时间窗口聚合 2815.4.3 使用窗口分析函数 2865.5 用户自定义函数( UDF)·2965.5.1 内部原理 296 5.5.2 创建和使用 UDF ···2975.5.3 特殊处理 3035.6 数据集的 join连接3055.6.1 join表达式和 join类型·3065.6.2 执行 join连接3075.6.3 处理重复列名 3145.6.4 join连接策略·3175.7 读写 Hive表··3195.7.1 PySpark SQL的 Hive配置3205.7.2 PySpark SQL读写 Hive表3225.7.3 分桶、分区和排序 3325.8 PySpark SQL编程案例·3345.8.1 电商订单数据分析 3345.8.2 电影评分数据集分析 344 第 6章 PySpark结构化流(初级) (195min)·3496.1 PySpark DStream流简介···3496.2 PySpark结构化流简介··3546.3 PySpark结构化流编程模型··3566.4 PySpark结构化流核心概念··3606.4.1 数据源 ···3606.4.2 输出模式 3616.4.3 触发器类型 3626.4.4 数据接收器 3626.4.5 水印···3636.5 使用各种流数据源 3636.5.1 使用 Socket数据源···3646.5.2 使用 Rate数据源···3656.5.3 使用 File数据源3686.5.4 使用 Kafka数据源 3726.6 流 DataFrame操作3796.6.1 选择、投影和聚合操作 3796.6.2 执行 join连接操作3856.7 使用数据接收器 3886.7.1 使用 File Data Sink 3896.7.2 使用 Kafka Data Sink·3916.7.3 使用 Foreach Data Sink··3946.7.4 使用 Console Data Sink ·3996.7.5 使用 Memory Data Sink·4016.7.6 Data Sink与输出模式 ···4026.8 深入研究输出模式 4026.8.1 无状态流查询 403 6.8.2 有状态流查询 4046.9 深入研究触发器 4096.9.1 固定间隔触发器 4106.9.2 一次性的触发器 4126.9.3 连续性的触发器 413 第 7章 PySpark结构化流(高级) (62min)···4167.1 事件时间和窗口聚合 4167.1.1 固定窗口聚合 4167.1.2 滑动窗口聚合 4217.2 水印···4267.2.1 限制维护的聚合状态数量 ·4267.2.2 处理迟到的数据 4297.3 处理重复数据 4367.4 容错···4397.5 流查询度量指标 4417.6 结构化流案例:运输公司车辆超速实时监测 ··4437.6.1 实现技术剖析 4437.6.2 完整实现代码 4497.6.3 执行步骤演示 451 第 8章 PySpark大数据分析综合案例 (21min)··4558.1 项目需求说明 4558.2 项目架构设计 4568.3 项目实现:数据采集 4578.3.1 爬虫程序实现:使用 requests库··4578.3.2 爬虫程序实现:使用 Scrapy框架4608.4 项目实现:数据集成 4668.4.1 Flume简介 4668.4.2 安装和配置 Flume·4678.4.3 实现数据集成 4688.5 项目实现:数据 ELT 4698.6 项目实现:数据清洗与整理 ·4728.7 项目实现:数据分析 4768.8 项目实现:分析结果导出 ·4798.9 项目实现:数据可视化 4808.9.1 Flask框架简介··4808.9.2 ECharts图表库介绍 ··4818.9.3 Flask Web程序开发 ··4838.9.4 前端 ECharts组件开发··485
作者介绍
辛立伟,一个在IT领域摸爬滚打二十多年的老程序员、技术培训师、技术作者。横跨Java、数据库、大数据开发与分析、人工智能等多个领域,参与多个IT项目的架构设计与开发。长期坚持撰写技术博客,曾在多个大学讲授Java开发、数据库和大数据技术课程,曾担任中国石油大学(青岛校区)等多所院校的外聘讲师。
序言

   相关推荐   

—  没有更多了  —

以下为对购买帮助不大的评价

此功能需要访问孔网APP才能使用
暂时不用
打开孔网APP