• Spark零基础实战
图书条目标准图
21年品牌 40万+商家 超1.5亿件商品

Spark零基础实战

16.04 2.4折 68 九品

仅1件

北京昌平
认证卖家担保交易快速发货售后保障

作者王家林、孔祥瑞 著

出版社化学工业出版社

出版时间2016-11

版次1

装帧平装

货号A9

上书时间2024-10-29

旧书香书城

十年老店
已实名 已认证 进店 收藏店铺

   商品详情   

品相描述:九品
图书标准信息
  • 作者 王家林、孔祥瑞 著
  • 出版社 化学工业出版社
  • 出版时间 2016-11
  • 版次 1
  • ISBN 9787122280176
  • 定价 68.00元
  • 装帧 平装
  • 开本 16开
  • 纸张 轻型纸
  • 页数 307页
  • 字数 503千字
  • 正文语种 简体中文
【内容简介】
Spark是业界公认的近几年发展快、受关注度的一体化多元化的大数据计算技术,可以同时满足不同业务场景和不同数据规模的大数据计算的需要。 

本书首先通过代码实战的方式对学习Spark前必须掌握的Scala内容进行讲解并结合Spark源码的阅读来帮助读者快速学习Scala函数式编程与面向对象完美结合的编程艺术,接着对Hadoop和Spark集群安装部署以及Spark在不同集成开发环境的开发实战作出了详细的讲解,然后基于大量的实战案例来讲解Spark核心RDD编程并深度解密RDD的密码,并且通过实战的方式详解了TopN在Spark RDD中的实现,为了让读者彻底了解Spark,本书用了大量的篇幅详细解密了Spark的高可用性、内核架构、运行机制等内容。 

Spark零基础实战这本书定位于零基础的学员,也可以作为有一定大数据Hadoop经验的从业者以及对大数据非常感兴趣的学生的本Spark入门书籍。
【作者简介】
王家林,DT大数据梦工厂/Spark亚太研究院,DT大数据梦工厂创始人/Spark亚太研究院院长及首席专家,DT 大数据梦工厂创始人和首席专家,Spark 亚太研究院院长和首席专家,移动互联网和大数据技术领域集大成者,多家公司的技术顾问,业界技术培训专家。 

 大数据技术公益推广人,大数据在线教育世界技术专家,Spark 大数据中国区培训专家。彻底研究了Spark 从0.5.0 到1.6.1 中共22 个版本的Spark 源码,目前致力于开发全球优化的Spark 中国版本。尤其擅长Spark 在生产环境下各种类型和场景故障的排除和解决,痴迷于Spark 生产环境下任意类型(例如Shuffle 和各种内存问题)的Spark 程序的深度性能优化。 

 从2014 年6 月24 日起,已开启免费的Spark 公开课《决胜大数据时代Spark100 期公益大讲堂》。在2015 年12 月27 日成立DT 大数据梦工厂,开启IMF(Impossible Mission Force)行动,率先在全球开展以Spark 为核心的,免费为社会培养100 万企业级实战高级大数据人才行动计划,截止目前已有数千人参与到这个行动之中。 

 曾负责某公司的类Hadoop 框架开发工作,是Hadoop 一站式解决方案的提供者,同时也是云计算和分布式大数据处理的较早实践者之一,在实践中用Hadoop 解决不同领域的大数据的高效处理和存储。致力于Android、HTML5、Hadoop 等的软、硬、云整合的一站式解决方案专家。 

 2007 年国内较早从事于Android 系统移植、软硬整合、框架修改、应用程序软件开发以及Android 系统测试和应用软件测试的技术专家。 

 2015年12月,在电视媒体录制了《大数据的奥秘》,《大数据时代的九大神器》等视频光盘。 

? 2016年1月至今,直播培训课程Hadoop,MySQL,Linux,Scala,Java,Spark零基础到高级企业级实战,Spark源码解析及性能优化,JVM性能调优,机器学习从零基础到企业级实战持续中。
【目录】
第1章Scala光速入门1 

1.1Scala基础与语法入门实战1 

1.1.1Scala基本数据类型1 

1.1.2Scala变量声明2 

1.1.3算术操作符介绍2 

1.1.4条件语句5 

1.1.5循环6 

1.1.6异常控制8 

1.2Scala中Array、Map等数据结构实战10 

1.2.1定长数组和可变数组10 

1.2.2数组常用算法10 

1.2.3Map映射11 

1.2.4Tuple元组12 

1.2.5List列表12 

1.2.6Set集合14 

1.2.7Scala集合方法大全15 

1.2.8综合案例及Spark源码解析17 

1.3小结18 

第2章Scala面向对象彻底精通及Spark源码阅读19 

2.1Scala面向对象详解19 

2.1.1Scala中的class、object初介绍19 

2.1.2主构造器与辅助构造器22 

2.1.3类的字段和方法彻底精通23 

2.1.4抽象类、接口的实战详解24 

2.1.5Scala Option类详解26 

2.1.6object的提取器27 

2.1.7Scala的样例类实战详解27 

2.2Scala综合案例及Spark源码解析28 

2.3小结29 

第3章Scala函数式编程彻底精通及Spark源码阅读30 

3.1函数式编程概述30 

3.2函数定义35 

3.3函数式对象37 

3.4本地函数41 

3.5头等函数42 

3.6函数字面量和占位符43 

3.6.1Scala占位符43 

3.6.2函数字面量43 

3.6.3部分应用函数44 

3.7闭包和Curring46 

3.8高阶函数49 

3.9从Spark源码角度解析Scala函数式编程55 

3.10小结57 

第4章Scala模式匹配、类型系统彻底精通与Spark源码阅读58 

4.1模式匹配语法58 

4.2模式匹配实战59 

4.2.1模式匹配基础实战59 

4.2.2数组、元祖实战59 

4.2.3Option实战60 

4.2.4提取器60 

4.2.5Scala异常处理与模式匹配61 

4.2.6sealed密封类62 

4.3类型系统62 

4.3.1泛型62 

4.3.2边界63 

4.3.3协变与逆变63 

4.4Spark源码阅读64 

4.5小结65 

第5章Scala隐式转换等彻底精通及Spark源码阅读66 

5.1隐式转换66 

5.1.1隐式转换的使用条件66 

5.1.2隐式转换实例66 

5.2隐式类68 

5.3隐式参数详解68 

5.4隐式值69 

5.5Spark源码阅读解析69 

5.6小结70 

第6章并发编程及Spark源码阅读71 

6.1并发编程彻底详解71 

6.1.1actor工作模型71 

6.1.2发送消息72 

6.1.3回复消息74 

6.1.4actor创建74 

6.1.5用上下文context创建actor75 

6.1.6用ActorSystem创建actor76 

6.1.7用匿名类创建actor76 

6.1.8actor生命周期77 

6.1.9终止actor78 

6.1.10actor实战80 

6.2小结82 

第7章源码编译83 

7.1Windows下源码编译83 

7.1.1下载Spark源码83 

7.1.2Sbt方式84 

7.1.3Maven方式89 

7.1.4需要注意的几个问题90 

7.2Ubuntu下源码编译92 

7.2.1下载Spark源码93 

7.2.2Sbt方式95 

7.2.3Maven方式96 

7.2.4makedistribution.sh脚本方式98 

7.2.5需要注意的几个问题99 

7.3小结100 

第8章Hadoop分布式集群环境搭建101 

8.1搭建Hadoop单机环境101 

8.1.1安装软件下载101 

8.1.2Ubuntu系统的安装101 

8.1.3Hadoop集群的安装和设置109 

8.1.4Hadoop单机模式下运行WordCount示例113 

8.2Hadoop伪分布式环境115 

8.2.1Hadoop伪分布式环境搭建115 

8.2.2Hadoop伪分布式模式下运行WordCount示例117 

8.3Hadoop完全分布式环境120 

8.3.1Hadoop完全分布式环境搭建120 

8.3.2Hadoop完全分布式模式下运行WordCount示例123 

8.4小结125 

第9章精通Spark集群搭建与测试127 

9.1Spark集群所需软件的安装127 

9.1.1安装JDK127 

9.1.2安装Scala130 

9.2Spark环境搭建132 

9.2.1Spark单机与单机伪分布式环境132 

9.2.2Spark Standalone集群环境搭建与配置135 

9.2.3Spark Standalone环境搭建的验证136 

9.3Spark集群的测试137 

9.3.1通过sparkshell脚本进行测试137 

9.3.2通过sparksubmit脚本进行测试145 

9.4小结145 

第10章Scala IDE开发Spark程序实战解析146 

10.1Scala IDE安装146 

10.1.1Ubuntu系统下安装146 

10.1.2Windows系统下安装147 

10.2ScalaIDE开发重点步骤详解148 

10.3Wordcount创建实战152 

10.4Spark源码导入Scala IDE154 

10.5小结164 

第11章实战详解IntelliJ IDEA下的Spark程序开发165 

11.1IDEA安装165 

11.1.1Ubuntu系统下安装165 

11.1.2Windows系统下安装167 

11.2IDEA开发重点步骤详解168 

11.2.1环境配置168 

11.2.2项目创建170 

11.2.3Spark包引入174 

11.3Wordcount创建实战174 

11.4IDEA导入Spark源码177 

11.5小结183 

第12章Spark简介184 

12.1Spark发展历史184 

12.2Spark在国内外的使用185 

12.3Spark生态系统简介188 

12.3.1Hadoop生态系统189 

12.3.2BDAS生态系统195 

12.3.3其他199 

12.4小结199 

第13章Spark RDD解密200 

13.1浅谈RDD200 

13.2创建RDD的几种常用方式204 

13.3Spark RDD API解析及其实战206 

13.4RDD的持久化解析及其实战217 

13.5小结218 

第14章Spark程序之分组TopN开发实战解析219 

14.1分组TopN动手实战219 

14.1.1Java之分组TopN开发实战219 

14.1.2Scala之分组TopN开发实战226 

14.2Scala之分组TopN运行原理解密232 

14.2.1textFile232 

14.2.2map234 

14.2.3groupByKey234 

14.3小结237 

第15章MasterHA工作原理解密238 

15.1Spark需要Master HA的原因238 

15.2Spark Master HA的实现238 

15.3Spark和ZOOKEEPER的协同工作机制240 

15.4ZOOKEEPER实现应用实战242 

15.5小结247 

第16章Spark内核架构解密248 

16.1Spark的运行过程248 

16.1.1SparkContext的创建过程248 

16.1.2Driver的注册过程249 

16.1.3Worker中任务的执行254 

16.1.4任务的调度过程255 

16.1.5Job执行结果的产生257 

16.2小结259 

第17章Spark运行原理实战解析260 

17.1用户提交程序Driver端解析260 

17.1.1SparkConf解析263 

17.1.2SparkContext解析264 

17.1.3DAGScheduler创建271 

17.1.4TaskScheduler创建272 

17.1.5SchedulerBackend创建273 

17.1.6Stage划分与TaskSet生成274 

17.1.7任务提交280 

17.2Spark运行架构解析283 

17.2.1Spark基本组件介绍283 

17.2.2Spark的运行逻辑285 

17.3Spark在不同集群上的运行架构291 

17.3.1Spark在Standalone模式下的运行架构291 

17.3.2Spark on yarn的运行架构294 

17.3.3Spark在不同模式下的应用实战297 

17.4Spark运行架构的实战解析300 

17.5小结307
点击展开 点击收起

   相关推荐   

—  没有更多了  —

以下为对购买帮助不大的评价

此功能需要访问孔网APP才能使用
暂时不用
打开孔网APP