• Flink入门与实战
图书条目标准图
21年品牌 40万+商家 超1.5亿件商品

Flink入门与实战

买书,就上二手书海官方企业店,清仓处理,真实库存,特价旧书,收藏店铺,优先发货! ps:下午三点之前的订单当天发货,之后明天发货,特殊情况除外。

6.53 1.1折 59 八五品

库存66件

河南鹤壁
认证卖家担保交易快速发货售后保障

作者徐葳

出版社人民邮电出版社

出版时间2019-10

版次1

装帧其他

货号wk-711995

上书时间2024-10-30

二手书海官方企业店

七年老店
已实名 已认证 进店 收藏店铺

   商品详情   

品相描述:八五品
正版二手,几十万种图书无法都提供实拍图,但均为7-9成新,无缺页、会有瑕疵或者少许磨损 、或多或少都会有划线、笔记、涂写等,不影响使用。均不保证有光盘、卡片等,辅导习题类笔记较多;书籍有多封面的新老封面随机发货,内容一致,不影响使用,介意勿拍!图片孔网自动匹配,图片与标题不符时以及图片为套装,与标题不符时的下单前请咨询客服,望周知!
图书标准信息
  • 作者 徐葳
  • 出版社 人民邮电出版社
  • 出版时间 2019-10
  • 版次 1
  • ISBN 9787115516787
  • 定价 59.00元
  • 装帧 其他
  • 开本 16开
  • 纸张 胶版纸
  • 页数 226页
  • 字数 264千字
【内容简介】
本书旨在帮助读者从零开始快速掌握Flink的基本原理与核心功能。本书首先介绍了Flink的基本原理和安装部署,并对Flink中的一些核心API进行了详细分析。然后配套对应的案例分析,分别使用Java代码和Scala代码实现案例。*后通过两个项目演示了Flink在实际工作中的一些应用场景,帮助读者快速掌握Flink开发。 学习本书需要大家具备一些大数据的基础知识,比如Hadoop、Kafka、Redis、Elasticsearch等框架的基本安装和使用。本书也适合对大数据实时计算感兴趣的读者阅读。 学习本书需要大家具备一些大数据的基础知识,例如Hadoop、Kafka、Redis、Elasticsearch等框架的基本安装和使用。本书也适合对大数据实时计算感兴趣的爱好者阅读。
【作者简介】
徐葳,拥有多年一线互联网公司软件的研发经验,曾担任猎豹移动大数据技术专家、中科院大数据研究院大数据技术专家、某大学外聘大数据讲师。他主导开发海外舆情监控系统、海量数据采集平台、OLAP数据分析平台、三度关系推荐系统和PB级数据检索系统等,并进行大数据相关的内容培训。此外,他对Hadoop、Storm和Spark等大数据技术框架有深入的理解。
【目录】
第 1章 Flink概述  1

1.1 Flink原理分析 1

1.2 Flink架构分析 2

1.3 Flink基本组件 3

1.4 Flink流处理(Streaming)与批处理(Batch) 4

1.5 Flink典型应用场景分析 5

1.6 流式计算框架对比 6

1.7 工作中如何选择实时计算框架 8

第 2章 Flink快速入门 9

2.1 Flink开发环境分析 9

2.1.1 开发工具推荐 9

2.1.2 Flink程序依赖配置 10

2.2 Flink程序开发步骤 11

2.3 Flink流处理(Streaming)案例开发 11

2.3.1 Java代码开发 12

2.3.2 Scala代码开发 14

2.3.3 执行程序 16

2.4 Flink批处理(Batch)案例开发 16

2.4.1 Java代码开发 16

2.4.2 Scala代码开发 18

2.4.3 执行程序 19

第3章 Flink的安装和部署 20

3.1 Flink本地模式 20

3.2 Flink集群模式 22

3.2.1 Standalone模式 23

3.2.2 Flink on Yarn模式 26

3.2.3 yarn-session.sh命令分析 30

3.2.4 Flink run命令分析 30

3.3 Flink代码生成JAR包 31

3.4 Flink HA的介绍和使用 35

3.4.1 Flink HA 35

3.4.2 Flink Standalone集群的HA安装和配置 35

3.4.3 Flink on Yarn集群HA的安装和配置 50

3.5 Flink Scala Shell 53

第4章 Flink常用API详解 56

4.1 Flink API的抽象级别分析 56

4.2 Flink DataStream的常用API 57

4.2.1 DataSource 57

4.2.2 Transformation 66

4.2.3 Sink 70

4.3 Flink DataSet的常用API分析 80

4.3.1 DataSource 80

4.3.2 Transformation 81

4.3.3 Sink 82

4.4 Flink Table API和SQL的分析及使用 82

4.4.1 Table API和SQL的基本使用 83

4.4.2 DataStream、DataSet和Table之间的转换 87

4.4.3 Table API和SQL的案例 91

4.5 Flink支持的DataType分析 97

4.6 Flink序列化分析 97

第5章 Flink高级功能的使用 99

5.1 Flink Broadcast 99

5.2 Flink Accumulator 104

5.3 Flink Broadcast和Accumulator的区别 108

5.4 Flink Distributed Cache 108

第6章 Flink State管理与恢复 112

6.1 State 112

6.1.1 Keyed State 113

6.1.2 Operator State 115

6.2 State的容错 116

6.3 CheckPoint 118

6.4 StateBackend 119

6.5 Restart Strategy 121

6.6 SavePoint 123

第7章 Flink窗口详解 125

7.1 Window 125

7.2 Window的使用 126

7.2.1 Time Window 127

7.2.2 Count Window 128

7.2.3 自定义Window 129

7.3 Window聚合分类 130

7.3.1 增量聚合 130

7.3.2 全量聚合 132

第8章 Flink Time详解 134

8.1 Time 134

8.2 Flink如何处理乱序数据 135

8.2.1 Watermark 136

8.2.2 Watermark的生成方式 137

8.3 EventTime Watermark解决乱序数据的案例详解 138

8.3.1 实现Watermark的相关代码 138

8.3.2 通过数据跟踪Watermark的时间 142

8.3.3 利用Watermark Window处理乱序数据 149

8.3.4 Late Element的处理方式 153

8.3.5 在多并行度下的Watermark应用 163

8.3.6 With Periodic Watermarks案例总结 165

第9章 Flink并行度详解 166

9.1 Flink并行度 166

9.2 TaskManager和Slot 166

9.3 并行度的设置 167

9.3.1 并行度设置之Operator Level 168

9.3.2 并行度设置之Execution Environment Level 168

9.3.3 并行度设置之Client Level 169

9.3.4 并行度设置之System Level 169

9.4 并行度案例分析 169

第 10章 Flink Kafka Connector详解 172

10.1 Kafka Connector 172

10.2 Kafka Consumer 173

10.2.1 Kafka Consumer消费策略设置 173

10.2.2 Kafka Consumer的容错 175

10.2.3 动态加载Topic 176

10.2.4 Kafka Consumer Offset自动提交 177

10.3 Kafka Producer 177

10.3.1 Kafka Producer的使用 177

10.3.2 Kafka Producer的容错 179

第 11章 Flink实战项目开发 184

11.1 实时数据清洗(实时ETL) 184

11.1.1 需求分析 184

11.1.2 项目架构设计 184

11.1.3 项目代码实现 186

11.2 实时数据报表 205

11.2.1 需求分析 205

11.2.2 项目架构设计 206

11.2.3 项目代码实现 207
点击展开 点击收起

   相关推荐   

—  没有更多了  —

以下为对购买帮助不大的评价

正版二手,几十万种图书无法都提供实拍图,但均为7-9成新,无缺页、会有瑕疵或者少许磨损 、或多或少都会有划线、笔记、涂写等,不影响使用。均不保证有光盘、卡片等,辅导习题类笔记较多;书籍有多封面的新老封面随机发货,内容一致,不影响使用,介意勿拍!图片孔网自动匹配,图片与标题不符时以及图片为套装,与标题不符时的下单前请咨询客服,望周知!
此功能需要访问孔网APP才能使用
暂时不用
打开孔网APP