• SPARK实战
21年品牌 40万+商家 超1.5亿件商品

SPARK实战

正版新书 新华官方库房直发 可开电子发票

62.37 6.3折 99 全新

库存4件

江苏南京
认证卖家担保交易快速发货售后保障

作者[美] 彼得·泽斯维奇(Petar Zečević) 马可·波纳奇(Marko Bonaći)

出版社机械工业出版社

ISBN9787111617488

出版时间2019-08

版次1

装帧其他

开本16开

纸张胶版纸

页数372页

字数0.605千字

定价99元

货号SC:9787111617488

上书时间2024-12-22

文源文化

六年老店
已实名 已认证 进店 收藏店铺

   商品详情   

品相描述:全新
全新正版 提供发票
商品描述
主编推荐:
本书完整系统地介绍Spark各模块的原理并兼顾使用实战及综合应用从实战角度讲解Spark,实例丰富,容易理解,内容实用,适合学习
精彩内容:
回顾过去一年半,笔者不禁想到:笔者在这个地球上是如何生存的,这是笔者生命中最繁忙的18个月!自从Manning出版社让笔者和Marko写一本关于Spark的书,笔者花了大部分空闲时间在Apache Spark上。笔者这段时间过得很充实,学到了很多,并且觉得这是值得的。如今,Spark是一个超热门的话题。它于2009年由Matei Zaharia在加利福尼亚州的伯克利设想的(最初是试图证明Mesos执行平台的可行性)。在2010年开源。在2013年Spark被捐赠给了Apache软件基金,从那以后它以闪电般的速度发展。2015年,Spark是最活跃的Apache项目之一,有超过1000个贡献者(投稿人、捐助人)。今天,Spark是所有主要Hadoop发行版的一部分,并被许多组织使用,广泛应用于或大或小的程序中。写一本关于Spark的书的挑战在于它发展很快。自从笔者们开始写Spark in Action,笔者们看到了6个版本Spark,有许多新的、重要的功能需要覆盖。第一个主要版本(2.0版本)在笔者完成了大部分书的写作后推出的,笔者不得不延迟出版计划以涵盖它附带的新功能。写Spark的另一个挑战是主题的广度:Spark更多的是一个平台,而不是一个框架。用户可以使用它来编写各种应用程序(用4种语言),包括批处理作业、实时处理系统和Web应用程序执行Spark作业、用SQL处理结构化数据和使用传统编程技术处理非结构化数据、各种机器学习和数据修改任务、与分布式文件系统交互、各种关系和无SQL数据库、实时系统等。安装、配置和运行Spark,这些运行时的工作也同样重要。笔者详细地介绍了Spark中的重要内容并且是本书成为使用Spark的指南,希望用户能够喜欢本书。
内容简介:
本书介绍了Spark应用程序及更高级应用的工作流程,主要从使用角度进行了描述,每个具体内容都有对应的代码。本书涵盖了Apache Spark和它丰富的API,构成Spark的组件(包括Spark SQL、Spark Streaming、Spark MLlib和Spark GraphX),在Spark standalone、 Hadoop YARN以及 Mesos clusters上运行Spark应用程序的部署和安装。通过对应的实例全面、详细地介绍了整个Spark实战开发的流程。*后,还介绍了Spark的高级应用,包括Spark流应用程序及可扩展和快速的机器学习框架H2O。本书可以作为高等院校计算机、软件工程、数据科学与大数据技术等专业的大数据课程材料,可用于指导Spark编程实践,也可供相关技术人员参考使用。
目录:
目录译者序致谢前言关于本书关于作者关于封面第1部分 第1步第1章 Apache Spark介绍1.1什么是Spark1.1.1 Spark革命1.1.2 MapReduce的缺点  1.1.3 Spark带来了什么有价值的东西1.2 Spark组件1.2.1 Spark核心1.2.2 Spark SQL 1.2.3 Spark Streaming 1.2.4 Spark MLlib1.2.5 Spark GraphX1.3 Spark程序流1.4 Spark生态系统1.5 建立spark-in-action 虚拟机1.5.1下载启动虚拟机1.5.2 停止虚拟机1.6总结第2章 Spark基础2.1使用spark-in-action虚拟机2.1.1 复制Spark in Action GitHub存储库2.1.2 找到java2.1.3 用虚拟机的Hadoop安装2.1.4 检查虚拟机的Spark安装2.2用Spark shell(壳)编写第一个Spark程序2.2.1 启动Spark shell2.2.2 第一个Spark代码示例2.2.3 弹性分布式数据集的概念2.3基础RDD行为和转换2.3.1 使用用map转换 2.3.2 使用distinct和flatMap 转换 2.3.3 使用sample、take和takeSample操作获取RDD的元素2.4 Double RDD功能2.4.1 Double RDD基本统计  2.4.2 使用直方图可视化数据分布2.4.3 近似求和与平均值2.5 总结第3章 编写Spark应用程序3.1在Eclipse上生成一个新的Spark项目3.2开发应用程序3.2.1 准备 GitHub 档案数据3.2.2 加载 JSON3.2.3 从Eclipse运行应用3.2.4 数据汇总3.2.5 排除非公司员工3.2.6 广播变量3.2.7 
...

   相关推荐   

—  没有更多了  —

以下为对购买帮助不大的评价

全新正版 提供发票
此功能需要访问孔网APP才能使用
暂时不用
打开孔网APP