Spark零基础实战
¥
16.04
2.4折
¥
68
九品
仅1件
作者王家林、孔祥瑞 著
出版社化学工业出版社
出版时间2016-11
版次1
装帧平装
货号A9
上书时间2024-10-29
商品详情
- 品相描述:九品
图书标准信息
-
作者
王家林、孔祥瑞 著
-
出版社
化学工业出版社
-
出版时间
2016-11
-
版次
1
-
ISBN
9787122280176
-
定价
68.00元
-
装帧
平装
-
开本
16开
-
纸张
轻型纸
-
页数
307页
-
字数
503千字
-
正文语种
简体中文
- 【内容简介】
-
Spark是业界公认的近几年发展快、受关注度的一体化多元化的大数据计算技术,可以同时满足不同业务场景和不同数据规模的大数据计算的需要。
本书首先通过代码实战的方式对学习Spark前必须掌握的Scala内容进行讲解并结合Spark源码的阅读来帮助读者快速学习Scala函数式编程与面向对象完美结合的编程艺术,接着对Hadoop和Spark集群安装部署以及Spark在不同集成开发环境的开发实战作出了详细的讲解,然后基于大量的实战案例来讲解Spark核心RDD编程并深度解密RDD的密码,并且通过实战的方式详解了TopN在Spark RDD中的实现,为了让读者彻底了解Spark,本书用了大量的篇幅详细解密了Spark的高可用性、内核架构、运行机制等内容。
Spark零基础实战这本书定位于零基础的学员,也可以作为有一定大数据Hadoop经验的从业者以及对大数据非常感兴趣的学生的本Spark入门书籍。
- 【作者简介】
-
王家林,DT大数据梦工厂/Spark亚太研究院,DT大数据梦工厂创始人/Spark亚太研究院院长及首席专家,DT 大数据梦工厂创始人和首席专家,Spark 亚太研究院院长和首席专家,移动互联网和大数据技术领域集大成者,多家公司的技术顾问,业界技术培训专家。
大数据技术公益推广人,大数据在线教育世界技术专家,Spark 大数据中国区培训专家。彻底研究了Spark 从0.5.0 到1.6.1 中共22 个版本的Spark 源码,目前致力于开发全球优化的Spark 中国版本。尤其擅长Spark 在生产环境下各种类型和场景故障的排除和解决,痴迷于Spark 生产环境下任意类型(例如Shuffle 和各种内存问题)的Spark 程序的深度性能优化。
从2014 年6 月24 日起,已开启免费的Spark 公开课《决胜大数据时代Spark100 期公益大讲堂》。在2015 年12 月27 日成立DT 大数据梦工厂,开启IMF(Impossible Mission Force)行动,率先在全球开展以Spark 为核心的,免费为社会培养100 万企业级实战高级大数据人才行动计划,截止目前已有数千人参与到这个行动之中。
曾负责某公司的类Hadoop 框架开发工作,是Hadoop 一站式解决方案的提供者,同时也是云计算和分布式大数据处理的较早实践者之一,在实践中用Hadoop 解决不同领域的大数据的高效处理和存储。致力于Android、HTML5、Hadoop 等的软、硬、云整合的一站式解决方案专家。
2007 年国内较早从事于Android 系统移植、软硬整合、框架修改、应用程序软件开发以及Android 系统测试和应用软件测试的技术专家。
2015年12月,在电视媒体录制了《大数据的奥秘》,《大数据时代的九大神器》等视频光盘。
? 2016年1月至今,直播培训课程Hadoop,MySQL,Linux,Scala,Java,Spark零基础到高级企业级实战,Spark源码解析及性能优化,JVM性能调优,机器学习从零基础到企业级实战持续中。
- 【目录】
-
第1章Scala光速入门1
1.1Scala基础与语法入门实战1
1.1.1Scala基本数据类型1
1.1.2Scala变量声明2
1.1.3算术操作符介绍2
1.1.4条件语句5
1.1.5循环6
1.1.6异常控制8
1.2Scala中Array、Map等数据结构实战10
1.2.1定长数组和可变数组10
1.2.2数组常用算法10
1.2.3Map映射11
1.2.4Tuple元组12
1.2.5List列表12
1.2.6Set集合14
1.2.7Scala集合方法大全15
1.2.8综合案例及Spark源码解析17
1.3小结18
第2章Scala面向对象彻底精通及Spark源码阅读19
2.1Scala面向对象详解19
2.1.1Scala中的class、object初介绍19
2.1.2主构造器与辅助构造器22
2.1.3类的字段和方法彻底精通23
2.1.4抽象类、接口的实战详解24
2.1.5Scala Option类详解26
2.1.6object的提取器27
2.1.7Scala的样例类实战详解27
2.2Scala综合案例及Spark源码解析28
2.3小结29
第3章Scala函数式编程彻底精通及Spark源码阅读30
3.1函数式编程概述30
3.2函数定义35
3.3函数式对象37
3.4本地函数41
3.5头等函数42
3.6函数字面量和占位符43
3.6.1Scala占位符43
3.6.2函数字面量43
3.6.3部分应用函数44
3.7闭包和Curring46
3.8高阶函数49
3.9从Spark源码角度解析Scala函数式编程55
3.10小结57
第4章Scala模式匹配、类型系统彻底精通与Spark源码阅读58
4.1模式匹配语法58
4.2模式匹配实战59
4.2.1模式匹配基础实战59
4.2.2数组、元祖实战59
4.2.3Option实战60
4.2.4提取器60
4.2.5Scala异常处理与模式匹配61
4.2.6sealed密封类62
4.3类型系统62
4.3.1泛型62
4.3.2边界63
4.3.3协变与逆变63
4.4Spark源码阅读64
4.5小结65
第5章Scala隐式转换等彻底精通及Spark源码阅读66
5.1隐式转换66
5.1.1隐式转换的使用条件66
5.1.2隐式转换实例66
5.2隐式类68
5.3隐式参数详解68
5.4隐式值69
5.5Spark源码阅读解析69
5.6小结70
第6章并发编程及Spark源码阅读71
6.1并发编程彻底详解71
6.1.1actor工作模型71
6.1.2发送消息72
6.1.3回复消息74
6.1.4actor创建74
6.1.5用上下文context创建actor75
6.1.6用ActorSystem创建actor76
6.1.7用匿名类创建actor76
6.1.8actor生命周期77
6.1.9终止actor78
6.1.10actor实战80
6.2小结82
第7章源码编译83
7.1Windows下源码编译83
7.1.1下载Spark源码83
7.1.2Sbt方式84
7.1.3Maven方式89
7.1.4需要注意的几个问题90
7.2Ubuntu下源码编译92
7.2.1下载Spark源码93
7.2.2Sbt方式95
7.2.3Maven方式96
7.2.4makedistribution.sh脚本方式98
7.2.5需要注意的几个问题99
7.3小结100
第8章Hadoop分布式集群环境搭建101
8.1搭建Hadoop单机环境101
8.1.1安装软件下载101
8.1.2Ubuntu系统的安装101
8.1.3Hadoop集群的安装和设置109
8.1.4Hadoop单机模式下运行WordCount示例113
8.2Hadoop伪分布式环境115
8.2.1Hadoop伪分布式环境搭建115
8.2.2Hadoop伪分布式模式下运行WordCount示例117
8.3Hadoop完全分布式环境120
8.3.1Hadoop完全分布式环境搭建120
8.3.2Hadoop完全分布式模式下运行WordCount示例123
8.4小结125
第9章精通Spark集群搭建与测试127
9.1Spark集群所需软件的安装127
9.1.1安装JDK127
9.1.2安装Scala130
9.2Spark环境搭建132
9.2.1Spark单机与单机伪分布式环境132
9.2.2Spark Standalone集群环境搭建与配置135
9.2.3Spark Standalone环境搭建的验证136
9.3Spark集群的测试137
9.3.1通过sparkshell脚本进行测试137
9.3.2通过sparksubmit脚本进行测试145
9.4小结145
第10章Scala IDE开发Spark程序实战解析146
10.1Scala IDE安装146
10.1.1Ubuntu系统下安装146
10.1.2Windows系统下安装147
10.2ScalaIDE开发重点步骤详解148
10.3Wordcount创建实战152
10.4Spark源码导入Scala IDE154
10.5小结164
第11章实战详解IntelliJ IDEA下的Spark程序开发165
11.1IDEA安装165
11.1.1Ubuntu系统下安装165
11.1.2Windows系统下安装167
11.2IDEA开发重点步骤详解168
11.2.1环境配置168
11.2.2项目创建170
11.2.3Spark包引入174
11.3Wordcount创建实战174
11.4IDEA导入Spark源码177
11.5小结183
第12章Spark简介184
12.1Spark发展历史184
12.2Spark在国内外的使用185
12.3Spark生态系统简介188
12.3.1Hadoop生态系统189
12.3.2BDAS生态系统195
12.3.3其他199
12.4小结199
第13章Spark RDD解密200
13.1浅谈RDD200
13.2创建RDD的几种常用方式204
13.3Spark RDD API解析及其实战206
13.4RDD的持久化解析及其实战217
13.5小结218
第14章Spark程序之分组TopN开发实战解析219
14.1分组TopN动手实战219
14.1.1Java之分组TopN开发实战219
14.1.2Scala之分组TopN开发实战226
14.2Scala之分组TopN运行原理解密232
14.2.1textFile232
14.2.2map234
14.2.3groupByKey234
14.3小结237
第15章MasterHA工作原理解密238
15.1Spark需要Master HA的原因238
15.2Spark Master HA的实现238
15.3Spark和ZOOKEEPER的协同工作机制240
15.4ZOOKEEPER实现应用实战242
15.5小结247
第16章Spark内核架构解密248
16.1Spark的运行过程248
16.1.1SparkContext的创建过程248
16.1.2Driver的注册过程249
16.1.3Worker中任务的执行254
16.1.4任务的调度过程255
16.1.5Job执行结果的产生257
16.2小结259
第17章Spark运行原理实战解析260
17.1用户提交程序Driver端解析260
17.1.1SparkConf解析263
17.1.2SparkContext解析264
17.1.3DAGScheduler创建271
17.1.4TaskScheduler创建272
17.1.5SchedulerBackend创建273
17.1.6Stage划分与TaskSet生成274
17.1.7任务提交280
17.2Spark运行架构解析283
17.2.1Spark基本组件介绍283
17.2.2Spark的运行逻辑285
17.3Spark在不同集群上的运行架构291
17.3.1Spark在Standalone模式下的运行架构291
17.3.2Spark on yarn的运行架构294
17.3.3Spark在不同模式下的应用实战297
17.4Spark运行架构的实战解析300
17.5小结307
点击展开
点击收起
— 没有更多了 —
以下为对购买帮助不大的评价