• Python大数据处理库PySpark实战
  • Python大数据处理库PySpark实战
  • Python大数据处理库PySpark实战
  • Python大数据处理库PySpark实战
  • Python大数据处理库PySpark实战
  • Python大数据处理库PySpark实战
21年品牌 40万+商家 超1.5亿件商品

Python大数据处理库PySpark实战

全新正版 极速发货

48.17 6.1折 79 全新

库存7件

广东广州
认证卖家担保交易快速发货售后保障

作者汪明

出版社清华大学出版社

ISBN9787302575085

出版时间2021-03

装帧平装

开本16开

定价79元

货号1202303177

上书时间2024-06-12

徐小智的书店

已实名 已认证 进店 收藏店铺

   商品详情   

品相描述:全新
商品描述
作者简介
汪明,硕士,毕业于中国矿业大学,徐州软件协会副理事长,某创业公司合伙人。从事软件行业十余年,发表论文数十篇。著有图书《TypeScript实战》《Go并发编程实战》。

目录
章 大数据时代 1

1.1 什么是大数据 1

1.1.1 大数据的特点 2

1.1.2 大数据的发展趋势 3

1.2 大数据下的分析工具 4

1.2.1 Hadoop 5

1.2.2 Hive 6

1.2.3 HBase 6

1.2.4 Apache Phoenix 7

1.2.5 Apache Drill 7

1.2.6 Apache Hudi 7

1.2.7 Apache Kylin 8

1.2.8 Apache Presto 8

1.2.9 ClickHouse 8

1.2.10 Apache Spark 9

1.2.11 Apache Flink 10

1.2.12 Apache Storm 10

1.2.13 Apache Druid 10

1.2.14 Apache Kafka 11

1.2.15 TensorFlow 11

1.2.16 PyTorch 12

1.2.17 Apache Superset 12

1.2.18 Elasticsearch 12

1.2.19 Jupyter Notebook 13

1.2.20 Apache Zeppelin 13

1.3 小结 14

第2章 大数据的瑞士军刀——Spark 15

2.1 Hadoop与生态系统 15

2.1.1 Hadoop概述 15

2.1.2 HDFS体系结构 19

2.1.3 Hadoop生态系统 20

2.2 Spark与Hadoop 23

2.2.1 Apache Spark概述 23

2.2.2 Spark和Hadoop比较 24

2.3 Spark核心概念 25

2.3.1 Spark软件栈 25

2.3.2 Spark运行架构 26

2.3.3 Spark部署模式 27

2.4 Spark基本操作 29

2.5 SQL in Spark 33

2.6 Spark与机器学习 33

2.6.1 决策树算法 35

2.6.2 贝叶斯算法 36

2.6.3 支持向量机算法 36

2.6.4 随机森林算法 37

2.6.5 人工神经网络算法 38

2.6.6 关联规则算法 39

2.6.7 线性回归算法 40

2.6.8 KNN算法 40

2.6.9 K-Means算法 41

2.7 小结 42

第3章 Spark实战环境设定 43

3.1 建立Spark环境前提 43

3.1.1 CentOS 7安装 45

3.1.2 FinalShell安装 55

3.1.3 PuTTY安装 58

3.1.4 JDK安装 60

3.1.5 Python安装 63

3.1.6 Visual Studio Code安装 64

3.1.7 PyCharm安装 65

3.2 一分钟建立Spark环境 66

3.2.1 Linux搭建Spark环境 66

3.2.2 Windows搭建Spark环境 69

3.3 建立Hadoop集群 79

3.3.1 CentOS配置 79

3.3.2 Hadoop伪分布模式安装 81

3.3.3 Hadoop完全分布模式安装 87

3.4 安装与配置Spark集群 93

3.5 安装与配置Hive 99

3.5.1 Hive安装 99

3.5.2 Hive与Spark集成 108

3.6 打造交互式Spark环境 110

3.6.1 Spark Shell 111

3.6.2 PySpark 112

3.6.3 Jupyter Notebook安装 112

3.7 小结 118

第4章 活用PySpark 119

4.1 Python 语法复习 119

4.1.1 Python基础语法 120

4.1.2 Python变量类型 124

4.1.3 Python运算符 135

4.1.4 Python控制语句 139

4.1.5 Python函数 143

4.1.6 Python模块和包 149

4.1.7 Python面向对象 154

4.1.8 Python异常处理 157

4.1.9 Python JSON处理 159

4.1.10 Python日期处理 160

4.2 用PySpark建立个Spark RDD 161

4.2.1 PySpark Shell 建立RDD 163

4.2.2 VSCode编程建立RDD 165

4.2.3 Jupyter 编程建立RDD 167

4.3 RDD的操作与观察 168

4.3.1 first操作 169

4.3.2 max操作 169

4.3.3 sum操作 170

4.3.4 take操作 171

4.3.5 top操作 172

4.3.6 count操作 172

4.3.7 collect操作 173

4.3.8 collectAsMap操作 174

4.3.9 countByKey操作 175

4.3.10 countByValue操作 175

4.3.11 glom操作 176

4.3.12 coalesce操作 177

4.3.13 combineByKey操作 178

4.3.14 distinct操作 179

4.3.15 filter操作 180

4.3.16 flatMap操作 181

4.3.17 flatMapValues操作 181

4.3.18 fold操作 182

4.3.19 foldByKey操作 183

4.3.20 foreach操作 184

4.3.21 foreachPartition操作 185

4.3.22 map操作 186

4.3.23 mapPartitions操作 187

4.3.24 mapPartitionsWithIndex操作 187

4.3.25 mapValues操作 188

4.3.26 groupBy操作 189

4.3.27 groupByKey操作 190

4.3.28 keyBy操作 191

4.3.29 keys操作 192

4.3.30 zip操作 193

4.3.31 zipWithIndex操作 194

4.3.32 values操作 194

4.3.33 union操作 195

4.3.34 takeOrdered操作 196

4.3.35 takeSample操作 197

4.3.36 subtract操作 198

4.3.37 subtractByKey操作 198

4.3.38 stats操作 199

4.3.39 sortBy操作 200

4.3.40 sortByKey操作 201

4.3.41 sample操作 202

4.3.42 repartition操作 203

4.3.43 reduce操作 204

4.3.44 reduceByKey操作 205

4.3.45 randomSplit操作 206

4.3.46 lookup操作 207

4.3.47 join操作 208

4.3.48 intersection操作 209

4.3.49 fullOuterJoin操作 210

4.3.50 leftOuterJoin与rightOuterJoin操作 211

4.3.51 aggregate操作 212

4.3.52 aggregateByKey操作 215

4.3.53 cartesian操作 217

4.3.54 cache操作 218

4.3.55 saveAsTextFile操作 218

4.4 共享变数 220

4.4.1 广播变量 220

4.4.2 累加器 221

4.5 DataFrames与Spark SQL 223

4.5.1 DataFrame建立 223

4.5.2 Spark SQL基本用法 228

4.5.3 DataFrame基本操作 231

4.6 撰写个Spark程序 245

4.7 提交你的 Spark 程序 246

4.8 小结 248

第5章 PySpark ETL 实战 249

5.1 认识资料单元格式 249

5.2 观察资料 255

5.3 选择、筛选与聚合 267

5.4 存储数据 269

5.5 Spark存储数据到SQL Server 272

5.6 小结 275

第6章 PySpark分布式机器学习 276

6.1 认识数据格式 277

6.2 描述统计 280

6.3 资料清理与变形 284

6.4 认识Pipeline 288

6.5 逻辑回归原理与应用 290

6.5.1 逻辑回归基本原理 290

6.5.2 逻辑回归应用示例:Titanic幸存者预测 291

6.6 决策树原理与应用 295

6.6.1 决策树基本原理 295

6.6.2 决策树应用示例:Titanic幸存者预测 296

6.7 小结 299

第7章 实战:PySpark Kafka实时项目 301

7.1 Kafka和Flask环境搭建 301

7.2 代码实现 303

7.3 小结 310

内容摘要
我国提出新基建概念,要加快大数据中心、人工智能等新型基础设施的建设进度,这无疑需要更多的大数据人才。PySpark可以对大数据进行分布式处理,降低大数据学习门槛,本书正是一本PySpark入门教材,适合有一定Python基础的读者学习使用。本书分为7章,章介绍大数据的基本概念、常用的大数据分析工具;第2章介绍Spark作为大数据处理的特点和算法;第3章介绍Spark实战环境的搭建,涉及Windows和Linux操作系统;第4章介绍如何灵活应用PySpark对数据进行操作;第5章介绍PySpark ETL处理,涉及PySpark读取数据、对数据进行统计分析等数据处理相关内容;第6章介绍PySpark如何利用MLlib库进行分布式机器学习(Titanic幸存者预测);第7章介绍一个PySpark和Kafka结合的实时项目。本书内容全面、示例丰富,可作为广大PySpark入门读者推荐的参考书,同时能作为大中专院校师生的教学参考书,也可作为高等院校计算机及相关专业的大数据技术教材使用。

主编推荐
PySpark可以对大数据进行分布式处理,降低了大数据的学习门槛。本书是一本PySpark入门教材,重点讲述PySpark安装、PySpark用法、ETL数据处理、PySpark机器学习及其实战,很后给出一个综合实战案例。本书逻辑线索清晰,内容体系合理,适合有一定Python基础的大数据分析和处理人员学习使用。

—  没有更多了  —

以下为对购买帮助不大的评价

此功能需要访问孔网APP才能使用
暂时不用
打开孔网APP