• Hadoop大数据技术开发实战
  • Hadoop大数据技术开发实战
21年品牌 40万+商家 超1.5亿件商品

Hadoop大数据技术开发实战

69.94 7.1折 99 全新

库存3件

四川成都
认证卖家担保交易快速发货售后保障

作者张伟洋

出版社清华大学出版社

ISBN9787302534020

出版时间2019-10

装帧平装

开本16开

定价99元

货号1201944692

上书时间2024-10-26

聚合博文书店

十年老店
已实名 已认证 进店 收藏店铺

   商品详情   

品相描述:全新
商品描述
目录
章  VMware中安装CentOS 71 
1.1  下载CENTOS 7镜像文件1 
1.2  新建虚拟机5 
1.3  安装操作系统9 
第2章  CentOS 7集群环境配置16 
2.1  系统环境配置16 
2.1.1  新建用户17 
2.1.2  修改用户权限17 
2.1.3  关闭防火墙17 
2.1.4  设置固定IP18 
2.1.5  修改主机名22 
2.1.6  新建资源目录23 
2.2  安装JDK23 
2.3  克隆虚拟机25 
2.4  配置主机IP映射29 
第3章  Hadoop31 
3.1  HADOOP简介31 
3.1.1  Hadoop生态系统架构32 
3.1.2  Hadoop 1.x与2.x的架构对比33 
3.2  YARN基本架构及组件34 
3.3  YARN工作流程37 
3.4  配置集群各节点SSH无密钥登录38 
3.4.1  无密钥登录原理38 
3.4.2  无密钥登录操作步骤39 
3.5  搭建HADOOP 2.X分布式集群41 
第4章  HDFS48 
4.1  HDFS简介48 
4.1.1  设计目标49 
4.1.2  总体架构49 
4.1.3  主要组件50 
4.1.4  文件读写53 
4.2  HDFS命令行操作54 
4.3  HDFS WEB界面操作57 
4.4  HDFS JAVA API操作59 
4.4.1  读取数据59 
4.4.2  创建目录61 
4.4.3  创建文件62 
4.4.4  删除文件63 
4.4.5  遍历文件和目录64 
4.4.6  获取文件或目录的元数据65 
4.4.7  上传本地文件66 
4.4.8  下载文件到本地66 
第5章  MapReduce68 
5.1  MAPREDUCE简介68 
5.1.1  设计思想69 
5.1.2  任务流程70 
5.1.3  工作原理71 
5.2  MAPREDUCE程序编写步骤74 
5.3  案例分析:单词计数76 
5.4  案例分析:数据去重82 
5.5  案例分析:求平均分86 
5.6  案例分析:二次排序89 
5.7  使用MRUNIT测试MAPREDUCE程序97 
第6章  ZooKeeper100 
6.1  ZOOKEEPER简介100 
6.1.1  应用场景101 
6.1.2  架构原理101 
6.1.3  数据模型102 
6.1.4  节点类型103 
6.1.5  Watcher机制103 
6.1.6  分布式锁105 
6.2  ZOOKEEPER安装配置106 
6.2.1  单机模式106 
6.2.2  伪分布模式108 
6.2.3  集群模式109 
6.3  ZOOKEEPER命令行操作112 
6.4  ZOOKEEPER JAVA API操作114 
6.4.1  创建Java工程114 
6.4.2  创建节点115 
6.4.3  修改数据118 
6.4.4  获取数据118 
6.4.5  删除节点123 
6.5  案例分析:监听服务器动态上下线124 
第7章  HDFS与YARN HA129 
7.1  HDFS HA搭建129 
7.1.1  架构原理130 
7.1.2  搭建步骤131 
7.1.3  结合ZooKeeper进行HDFS自动故障转移137 
7.2  YARN HA搭建142 
7.2.1  架构原理142 
7.2.2  搭建步骤142 
第8章  HBase147 
8.1  什么是HBASE147 
8.2  HBASE基本结构148 
8.3  HBASE数据模型149 
8.4  HBASE集群架构151 
8.5  HBASE安装配置153 
8.5.1  单机模式153 
8.5.2  伪分布模式155 
8.5.3  集群模式156 
8.6  HBASE SHELL命令操作160 
8.7  HBASE JAVA API操作164 
8.7.1  创建Java工程164 
8.7.2  创建表164 
8.7.3  添加数据166 
8.7.4  查询数据168 
8.7.5  删除数据169 
8.8  HBASE过滤器170 
8.9  案例分析:HBASE MAPREDUCE数据转移174 
8.9.1  HBase不同表间数据转移174 
8.9.2  HDFS数据转移至HBase180 
8.10  案例分析:HBASE数据备份与恢复183 
第9章  Hive185 
9.1  什么是HIVE185 
9.1.1  数据单元186 
9.1.2  数据类型187 
9.2  HIVE架构体系189 
9.3  HIVE三种运行模式190 
9.4  HIVE安装配置191 
9.4.1  内嵌模式192 
9.4.2  本地模式195 
9.4.3  远程模式198 
9.5  HIVE常见属性配置200 
9.6  BEELINE CLI的使用201 
9.7  HIVE数据库操作205 
9.8  HIVE表操作208 
9.8.1  内部表209 
9.8.2  外部表213 
9.8.3  分区表215 
9.8.4  分桶表219 
9.9  HIVE查询223 
9.9.1  SELECT子句查询224 
9.9.2  JOIN连接查询230 
9.10  其他HIVE命令233 
9.11  HIVE元数据表结构分析235 
9.12  HIVE自定义函数237 
9.13  HIVE JDBC操作239 
9.14  案例分析:HIVE与HBASE整合242 
9.15  案例分析:HIVE分析搜狗用户搜索日志246 
0章  Sqoop251 
10.1  什么是SQOOP251 
10.1.1  Sqoop基本架构252 
10.1.2  Sqoop开发流程252 
10.2  使用SQOOP253 
10.3  数据导入工具254 
10.4  数据导出工具259 
10.5  SQOOP安装与配置261 
10.6  案例分析:将MYSQL表数据导入到HDFS中262 
10.7  案例分析:将HDFS中的数据导出到MYSQL中263 
10.8  案例分析:将MYSQL表数据导入到HBASE中264 
1章  Kafka267 
11.1  什么是KAFKA267 
11.2  KAFKA架构268 
11.3  主题与分区269 
11.4  分区副本271 
11.5  消费者组273 
11.6  数据存储机制274 
11.7  集群环境搭建276 
11.8  命令行操作278 
11.8.1  创建主题278 
11.8.2  查询主题279 
11.8.3  创建生产者280 
11.8.4  创建消费者280 
11.9  JAVA API操作281 
11.9.1  创建Java工程281 
11.9.2  创建生产者281 
11.9.3  创建消费者283 
11.9.4  运行程序285 
11.10  案例分析:KAFKA生产者拦截器287 
2章  Flume294 
12.1  什么是FLUME294 
12.2  架构原理295 
12.2.1  单节点架构295 
12.2.2  组件介绍296 
12.2.3  多节点架构297 
12.3  安装与简单使用299 
12.4  案例分析:日志监控(一)302 
12.5  案例分析:日志监控(二)304 
12.6  拦截器306 
12.6.1  内置拦截器307 
12.6.2  自定义拦截器310 
12.7  选择器313 
12.8  案例分析:拦截器和选择器的应用315 
12.9  案例分析:FLUME与KAFKA整合319 
3章  Storm322 
13.1  什么是STORM322 
13.2  STORM TOPOLOGY323 
13.3  STORM集群架构324 
13.4  STORM流分组326 
13.5  STORM集群环境搭建329 
13.6  案例分析:单词计数332 
13.6.1  设计思路332 
13.6.2  代码编写333 
13.6.3  程序运行339 
13.7  案例分析:STORM与KAFKA整合341 
4章  Elasticsearch347 
14.1  什么是ELASTICSEARCH347 
14.2  基本概念348 
14.2.1  索引、类型和文档348 
14.2.2  分片和副本348 
14.2.3  路由349 
14.3  集群架构350 
14.4  集群环境搭建352 
14.5  KIBANA安装355 
14.6  REST API357 
14.6.1  集群状态API357 
14.6.2  索引API358 
14.6.3  文档API360 
14.6.4  搜索API363 
14.6.5  Query DSL365 
14.7  HEAD插件安装371 
14.8  JAVA API操作:员工信息375 
5章  Scala379 
15.1  什么是SCALA379 
15.2  安装SCALA380 
15.2.1  Windows中安装Scala380 
15.2.2  CentOS 7中安装Scala381 
15.3  SCALA基础382 
15.3.1  变量声明382 
15.3.2  数据类型383 
15.3.3  表达式385 
15.3.4  循环386 
15.3.5  方法与函数388 
15.4  集合391 
15.4.1  数组391 
15.4.2  List393 
15.4.3  Map映射394 
15.4.4  元组396 
15.4.5  Set396 
15.5  类和对象398 
15.5.1  类的定义398 
15.5.2  单例对象399 
15.5.3  伴生对象399 
15.5.4  get和set方法400 
15.5.5  构造器402 
15.6  抽象类和特质404 
15.6.1  抽象类404 
15.6.2  特质406 
15.7  使用ECLIPSE创建SCALA项目408 
15.7.1  安装Scala for Eclipse IDE408 
15.7.2  创建Scala项目409 
15.8  使用INTELLIJ IDEA创建SCALA项目410 
15.8.1  IDEA中安装Scala插件410 
15.8.2  创建Scala项目414 
6章  Spark416 
16.1  SPARK概述416 
16.2  SPARK主要组件417 
16.3  SPARK运行时架构419 
16.3.1  Spark Standalone模式419 
16.3.2  Spark On YARN模式421 
16.4  SPARK集群环境搭建423 
16.4.1  Spark Standalone模式423 
16.4.2  Spark On YARN模式425 
16.5  SPARK HA搭建426 
16.6  SPARK应用程序的提交430 
16.7  SPARK SHELL的使用433 
16.8  SPARK RDD435 
16.8.1  创建RDD435 
16.8.2  RDD算子436 
16.9  案例分析:使用SPARK RDD实现单词计数441 
16.10  SPARK SQL448 
16.10.1  DataFrame和Dataset448 
16.10.2  Spark SQL基本使用449 
16.11  案例分析:使用SPARK SQL实现单词计数452 
16.12  案例分析:SPARK SQL与HIVE整合454 
16.13  案例分析:SPARK SQL读写MYSQL457

内容摘要
本书以Hadoop及其周边框架为主线,介绍了整个Hadoop生态系统主流的大数据开发技术。全书共16章,章讲解了VMware中CentOS 7操作系统的安装;第2章讲解了大数据开发之前对操作系统集群环境的配置;第3~16章讲解了Hadoop生态系统各框架HDFS、MapReduce、YARN、ZooKeeper、HBase、Hive、Sqoop和数据实时处理系统Flume、Kafka、Storm、Spark以及分布式搜索系统Elasticsearch等的基础知识、架构原理、集群环境搭建,同时包括常用的Shell命令、API操作、源码剖析,并通过实际案例加深对各个框架的理解与应用。通过阅读本书,读者即使没有任何大数据基础,也可以对照书中的步骤成功搭建属于自己的大数据集群并独立完成项目开发。 
本书可作为Hadoop新手入门的指导书,也可作为大数据开发人员的随身手册以及大数据从业者的参考用书。

主编推荐
 

精彩内容
 

   相关推荐   

—  没有更多了  —

以下为对购买帮助不大的评价

此功能需要访问孔网APP才能使用
暂时不用
打开孔网APP