• 大数据基础编程、实验和案例教程(第2版)
  • 大数据基础编程、实验和案例教程(第2版)
  • 大数据基础编程、实验和案例教程(第2版)
  • 大数据基础编程、实验和案例教程(第2版)
  • 大数据基础编程、实验和案例教程(第2版)
  • 大数据基础编程、实验和案例教程(第2版)
21年品牌 40万+商家 超1.5亿件商品

大数据基础编程、实验和案例教程(第2版)

全新正版 极速发货

43.22 6.3折 69 全新

库存7件

广东广州
认证卖家担保交易快速发货售后保障

作者林子雨

出版社清华大学出版社

ISBN9787302559771

出版时间2020-10

装帧平装

开本16开

定价69元

货号1202151026

上书时间2024-11-21

书香美美

已实名 已认证 进店 收藏店铺

   商品详情   

品相描述:全新
商品描述
内容摘要
以下信息以网上匹配仅供参考,不支持以此为由退款内容简介:本实践教程主要介绍大数据软件环境的搭建、大数据基础编程和大数据实验案例,可以帮助大数据学习者有效构建大数据实验环境,快速开展入门级编程。内容包括Linux系统的安装、Hadoop的安装、HDFS基础编程、HBase安装和基础编程、MapReduce基础编程、Hive安装和基础编程、MongoDB安装和基础编程、Redis安装和基础编程、数据仓库Hive安装和基础编程、可视化工具安装和使用、Spark安装和基础编程、大数据实验综合案例目录:第1章大数据技术概述/11.1大数据时代/11.2大数据关键技术/21.3大数据软件/31.3.1Hadoop/41.3.2Spark/51.3.3NoSQL数据库/51.4内容安排/61.5在线资源/81.6本章小结/10第2章Linux系统的安装和使用/112.1Linux系统简介/112.2Linux系统安装/112.2.1下载安装文件/122.2.2Linux系统的安装方式/122.2.3安装Linux虚拟机/132.2.4生成Linux虚拟机镜像文件/352.3Linux系统及相关软件的基本使用方法/362.3.1Shell/362.3.2root用户/372.3.3创建普通用户/372.3.4sudo命令/382.3.5常用的Linux系统命令/382.3.6文件解压缩/392.3.7常用的目录/392.3.8目录的权限/402.3.9更新APT/402.3.10切换中英文输入法/422.3.11vim编辑器的使用方法/422.3.12在Windows系统中使用SSH方式登录Linux系统/432.3.13在Linux系统中安装Eclipse/462.3.14其他使用技巧/472.4关于本书内容的一些约定/472.5本章小结/48第3章Hadoop的安装和使用/493.1Hadoop简介/493.2安装Hadoop前的准备工作/493.2.1创建hadoop用户/503.2.2更新APT/503.2.3安装SSH/503.2.4安装Java环境/513.3安装Hadoop/523.3.1下载安装文件/533.3.2单机模式配置/533.3.3伪分布式模式配置/543.3.4分布式模式配置/613.4本章小结/70第4章HDFS操作方法和基础编程/714.1HDFS操作常用的Shell命令/714.1.1查看命令的用法/714.1.2HDFS操作/734.2利用HDFS的Web管理界面/754.3HDFS编程实践/754.3.1在Eclipse中创建项目/754.3.2为项目添加需要用到的JAR包/764.3.3编写Java应用程序/794.3.4编译运行程序/824.3.5应用程序的部署/834.4本章小结/86第5章HBase的安装和基础编程/885.1安装HBase/885.1.1下载安装文件/885.1.2配置环境变量/895.1.3添加用户权限/895.1.4查看HBase版本信息/895.2HBase的配置/905.2.1单机模式配置/905.2.2伪分布式模式配置/925.3HBase常用的Shell命令/945.3.1在HBase中创建表/945.3.2添加数据/945.3.3查看数据/955.3.4删除数据/965.3.5删除表/975.3.6查询历史数据/975.3.7退出HBase数据库/975.4HBase编程实践/985.4.1在Eclipse中创建项目/985.4.2为项目添加需要用到的JAR包/1005.4.3编写Java应用程序/1025.4.4编译运行程序/1055.5本章小结/106第6章典型NoSQL数据库的安装和使用/1086.1Redis的安装和使用/1086.1.1Redis简介/1086.1.2安装Redis/1086.1.3Redis实例演示/1106.2MongoDB的安装和使用/1116.2.1MongDB简介/1116.2.2安装MongoDB/1126.2.3使用Shell命令操作MongoDB/1136.2.4JavaAPI编程实例/1186.3本章小结/122第7章MapReduce基础编程/1237.1词频统计任务要求/1237.2MapReduce程序编写方法/1247.2.1编写Map处理逻辑/1247.2.2编写Reduce处理逻辑/1247.2.3编写main方法/1257.2.4完整的词频统计程序/1267.3编译打包程序/1277.3.1使用命令行编译打包词频统计程序/1287.3.2使用Eclipse编译打包词频统计程序/1287.4运行程序/1367.5本章小结/139第8章数据仓库Hive的安装和使用/1408.1Hive的安装/1408.1.1下载安装文件/1408.1.2配置环境变量/1418.1.3修改配置文件/1418.1.4安装并配置MySQL/1428.2Hive的数据类型/1448.3Hive基本操作/1458.3.1创建数据库、表、视图/1458.3.2删除数据库、表、视图/1468.3.3修改数据库、表、视图/1478.3.4查看数据库、表、视图/1488.3.5描述数据库、表、视图/1488.3.6向表中装载数据/1498.3.7查询表中数据/1498.3.8向表中插入数据或从表中导出数据/1498.4Hive应用实例:WordCount/1508.5Hive编程的优势/1518.6本章小结/151第9章Spark的安装和基础编程/1529.1基础环境/1529.2安装Spark/1529.2.1下载安装文件/1529.2.2配置相关文件/1539.3使用SparkShell编写代码/1549.3.1启动SparkShell/1549.3.2读取文件/1559.3.3编写词频统计程序/1569.4编写Spark独立应用程序/1579.4.1用Scala语言编写Spark独立应用程序/1579.4.2用Java语言编写Spark独立应用程序/1619.5本章小结/164第10章Flink的安装和基础编程/16510.1安装Flink/16510.2编程实现WordCount程序/16710.2.1安装Maven/16710.2.2编写代码/16710.2.3使用Maven打包Java程序/17110.2.4通过flinkrun命令运行程序/17210.3本章小结/172第11章典型可视化工具的使用方法/17311.1D3可视化库的使用方法/17311.1.1D3可视化库的安装/17311.1.2基本操作/17411.2使用ECharts制作图表/18211.2.1ECharts简介/18211.2.2ECharts图表制作方法/18211.3本章小结/185第12章数据采集工具的安装和使用/18612.1Kafka/18612.1.1Kafka相关概念/18612.1.2安装Kafka/18612.1.3一个实例/18712.2实例:编写Spark程序使用Kafka数据源/18812.2.1Kafka准备工作/18812.2.2Spark准备工作/19012.2.3编写Spark程序使用Kafka数据源/19112.3本章小结/197第13章大数据课程综合实验案例/19813.1案例简介/19813.1.1案例目的/19813.1.2适用对象/19813.1.3时间安排/19813.1.4预备知识/19813.1.5硬件要求/19913.1.6软件工具/19913.1.7数据集/19913.1.8案例任务/19913.2实验环境搭建/20013.3实验步骤概述/20013.4本地数据集上传到数据仓库Hive/20113.4.1实验数据集的下载/20113.4.2数据集的预处理/20313.4.3导入数据库/20613.5Hive数据分析/20913.5.1简单查询分析/20913.5.2查询条数统计分析/21113.5.3关键字条件查询分析/21313.5.4根据用户行为分析/21413.5.5用户实时查询分析/21513.6Hive、MySQL、HBase数据互导/21613.6.1Hive预操作/21613.6.2使用JavaAPI将数据从Hive导入MySQL/21713.6.3使用HBaseJavaAPI把数据从本地导入HBase中/22213.7使用R进行数据可视化分析/22913.7.1安装R/22913.7.2安装依赖库/23013.7.3可视化分析/23213.8本章小结/236第14章实验/23714.1实验一

   相关推荐   

—  没有更多了  —

以下为对购买帮助不大的评价

此功能需要访问孔网APP才能使用
暂时不用
打开孔网APP