猜你喜欢
Kafka权威指南(第2版)

Kafka权威指南(第2版)

书籍作者:格温·沙皮拉 ISBN:9787115601421
书籍语言:简体中文 连载状态:全集
电子书格式:pdf,txt,epub,mobi,azw3 下载次数:8185
创建日期:2023-05-17 发布日期:2023-05-17
运行环境:PC/Windows/Linux/Mac/IOS/iPhone/iPad/Kindle/Android/安卓/平板
下载地址
内容简介

本书介绍Kafka的技术原理和应用技巧。内容包括如何安装和配置Kafka、如何使用Kafka API、Kafka的设计原则和可靠性保证,以及Kafka的一些架构细节,如复制协议、控制器和存储层。本书列举了一些非常流行的Kafka应用场景,比如基于事件驱动的微服务系统的消息总线、流式处理应用程序和大规模数据管道。通过学习本书,你不仅能够深入理解这项大数据核心技术,还能够将所学知识付诸实践,在生产环境中更好地运行Kafka,并基于它构建稳健的高性能应用程序。

作者简介

【作者介绍】

格温.沙皮拉(Gwen Shapira)是Kafka项目的Committer和PMC成员,也是Confluent的工程主管,领导云原生Kafka团队,致力于打造更具弹性和可伸缩性的Kafka云服务。

托德.帕利诺(Todd Palino)是LinkedIn的站点可靠性工程师,他开发了Kafka消费者监控工具Burrow。

拉吉尼.西瓦拉姆(Rajini Sivaram)是Kafka项目的Committer和PMC成员。她在Confluent为Kafka设计和开发跨集群复制和安全功能。

克里特/佩蒂(Krit Petty)是LinkedIn的Kafka站点可靠性工程经理,曾负责将LinkedIn的大规模Kafka集群迁移到微软的Azure云。

【译者介绍】

薛命灯,毕业于厦门大学软件学院,十余年软件开发和架构经验,InfoQ高级社区编辑。另译有《硅谷革命》《生产微服务》等书。微信公众号CodeDeep。

编辑推荐

本书第1版出版时,有超过30%的《财富》世界500强公司使用Kafka。5年后,这个比例已经达到70%。毋庸置疑,作为大数据时代的核心技术,Kafka已然成为所有动态数据平台的事实基础。本书为使用Kafka的软件工程师、架构师和运维工程师勾勒出一条完整的学习曲线,并强调原理剖析和应用实践。

来自Confluent和LinkedIn的一线Kafka开发人员将为你解释如何部署生产级Kafka集群、编写可靠的事件驱动微服务,以及使用Kafka构建可伸缩的流处理应用程序。通过详细的示例,你将了解Kafka的设计原则、可靠性保证,以及架构细节,包括复制协议、控制器和存储层。

* 部署和配置Kafka的良好实践

* Kafka生产者和消费者如何读写消息

* 确保可靠传递数据的模式和用例要求

* 用Kafka构建数据管道和应用程序

* 用Kafka在生产环境中执行监控、调优和维护任务

* Kafka的关键运维指标

* Kafka针对流处理系统的交付能力

《Kafka权威指南(第2版)》电子书免费下载

pdf下载 txt下载 epub下载 mobi下载 azw3下载

目录
本书赞誉 xvii
第 2 版序 xix
第 1 版序 xxi
前言 xxiii
第 1 章 初识Kafka 1
1.1 发布与订阅消息系统 1
1.1.1 如何开始 2
1.1.2 独立的队列系统 3
1.2 Kafka登场 3
1.2.1 消息和批次 4
1.2.2 模式 4
1.2.3 主题和分区 4
1.2.4 生产者和消费者 5
1.2.5 broker和集群 6
1.2.6 多集群 7
1.3 为什么选择Kafka 8
1.3.1 多个生产者 8
1.3.2 多个消费者 8
1.3.3 基于磁盘的数据保留 9
1.3.4 伸缩性 9
1.3.5 高性能 9
1.3.6 平台特性 9
1.4 数据生态系统 9
1.5 起源故事 11
1.5.1 LinkedIn的问题 11
1.5.2 Kafka的诞生 12
1.5.3 走向开源 12
1.5.4 商业化 13
1.5.5 命名 13
1.6 开始Kafka之旅 13
第 2 章 安装Kafka 14
2.1 环境配置 14
2.1.1 选择操作系统 14
2.1.2 安装Java 14
2.1.3 安装ZooKeeper 15
2.2 安装broker 17
2.3 配置broker 18
2.3.1 常规配置参数 18
2.3.2 主题的默认配置 20
2.4 选择硬件 24
2.4.1 磁盘吞吐量 25
2.4.2 磁盘容量 25
2.4.3 内存 25
2.4.4 网络 25
2.4.5 CPU 26
2.5 云端的Kafka 26
2.5.1 微软Azure 26
2.5.2 AWS 26
2.6 配置Kafka集群 27
2.6.1 需要多少个broker 27
2.6.2 broker配置 28
2.6.3 操作系统调优 28
2.7 生产环境的注意事项 31
2.7.1 垃圾回收器选项 31
2.7.2 数据中心布局 32
2.7.3 共享ZooKeeper 32
2.8 小结 33
第 3 章 Kafka生产者——向Kafka写入数据 34
3.1 生产者概览 35
3.2 创建 Kafka生产者 36
3.3 发送消息到Kafka 37
3.3.1 同步发送消息 38
3.3.2 异步发送消息 39
3.4 生产者配置 39
3.4.1 client.id 40
3.4.2 acks 40
3.4.3 消息传递时间 41
3.4.4 linger.ms 43
3.4.5 buffer.memory 43
3.4.6 compression.type 43
3.4.7 batch.size 43
3.4.8 max.in.flight.requests.per.connection 43
3.4.9 max.request.size 44
3.4.10 receive.buffer.bytes和send.buffer.bytes 44
3.4.11 enable.idempotence 44
3.5 序列化器 45
3.5.1 自定义序列化器 45
3.5.2 使用Avro序列化数据 47
3.5.3 在Kafka中使用Avro记录 48
3.6 分区 51
3.7 标头 52
3.8 拦截器 53
3.9 配额和节流 54
3.10 小结 56
第 4 章 Kafka消费者——从Kafka读取数据 57
4.1 Kafka消费者相关概念 57
4.1.1 消费者和消费者群组 57
4.1.2 消费者群组和分区再均衡 60
4.1.3 群组固定成员 62
4.2 创建 Kafka消费者 63
4.3 订阅主题 63
4.4 轮询 64
4.5 配置消费者 66
4.5.1 fetch.min.bytes 66
4.5.2 fetch.max.wait.ms 66
4.5.3 fetch.max.bytes 66
4.5.4 max.poll.records 67
4.5.5 max.partition.fetch.bytes 67
4.5.6 session.timeout.ms和heartbeat.interval.ms 67
4.5.7 max.poll.interval.ms 67
4.5.8 default.api.timeout.ms 68
4.5.9 request.timeout.ms 68
4.5.10 auto.offset.reset 68
4.5.11 enable.auto.commit 68
4.5.12 partition.assignment.strategy 68
4.5.13 client.id 69
4.5.14 client.rack 69
4.5.15 group.instance.id 70
4.5.16 receive.buffer.bytes和send.buffer.bytes 70
4.5.17 offsets.retention.minutes 70
4.6 提交和偏移量 70
4.6.1 自动提交 71
4.6.2 提交当前偏移量 72
4.6.3 异步提交 73
4.6.4 同步和异步组合提交 74
4.6.5 提交特定的偏移量 75
4.7 再均衡监听器 76
4.8 从特定偏移量位置读取记录 78
4.9 如何退出 79
4.10 反序列化器 80
4.10.1 自定义反序列化器 81
4.10.2 在消费者里使用Avro反序列器 83
4.11 独立的消费者:为什么以及怎样使用不属于任何群组的消费者 83
4.12 小结 84
第 5 章 编程式管理Kafka 85
5.1 AdminClient概览 85
5.1.1 异步和最终一致性API 86
5.1.2 配置参数 86
5.1.3 扁平的结构 86
5.1.4 额外的话 86
5.2 AdminClient生命周期:创建、配置和关闭 87
5.2.1 client.dns.lookup 87
5.2.2 request.timeout.ms 88
5.3 基本的主题管理操作 88
5.4 配置管理 91
5.5 消费者群组管理 92
5.5.1 查看消费者群组 93
5.5.2 修改消费者群组 94
5.6 集群元数据 95
5.7 高级的管理操作 96
5.7.1 为主题添加分区 96
5.7.2 从主题中删除消息 96
5.7.3 首领选举 97
5.7.4 重新分配副本 98
5.8 测试 99
5.9 小结 101
第 6 章 深入Kafka 102
6.1 集群的成员关系 102
6.2 控制器 103
6.3 复制 105
6.4 处理请求 107
6.4.1 生产请求 109
6.4.2 获取请求 109
6.4.3 其他请求 111
6.5 物理存储 112
6.5.1 分层存储 113
6.5.2 分区的分配 114
6.5.3 文件管理 115
6.5.4 文件格式 115
6.5.5 索引 117
6.5.6 压实 117
6.5.7 压实的工作原理 118
6.5.8 被删除的事件 119
6.5.9 何时会压实主题 119
6.6 小结 120
第 7 章 可靠的数据传递 121
7.1 可靠性保证 121
7.2 复制 122
7.3 broker配置 123
7.3.1 复制系数 123
7.3.2 不彻底的首领选举 125
7.3.3 最少同步副本 126
7.3.4 保持副本同步 126
7.3.5 持久化到磁盘 126
7.4 在可靠的系统中使用生产者 127
7.4.1 发送确认 127
7.4.2 配置生产者的重试参数 128
7.4.3 额外的错误处理 129
7.5 在可靠的系统中使用消费者 129
7.5.1 消费者的可靠性配置 130
7.5.2 手动提交偏移量 130
7.6 验证系统可靠性 132
7.6.1 验证配置 132
7.6.2 验证应用程序 133
7.6.3 在生产环境中监控可靠性 133
7.7 小结 134
第 8 章 精确一次性语义 135
8.1 幂等生产者 135
8.1.1 幂等生产者的工作原理 136
8.1.2 幂等生产者的局限性 137
8.1.3 如何使用幂等生产者 138
8.2 事务 138
8.2.1 事务的应用场景 139
8.2.2 事务可以解决哪些问题 139
8.2.3 事务是如何保证精确一次性的 140
8.2.4 事务不能解决哪些问题 141
8.2.5 如何使用事务 143
8.2.6 事务ID和隔离 145
8.2.7 事务的工作原理 146
8.3 事务的性能 148
8.4 小结 148
第 9 章 构建数据管道 149
9.1 构建数据管道时需要考虑的问题 150
9.1.1 及时性 150
9.1.2 可靠性 150
9.1.3 高吞吐量和动态吞吐量 151
9.1.4 数据格式 151
9.1.5 转换 152
9.1.6 安全性 152
9.1.7 故障处理 153
9.1.8 耦合性和灵活性 153
9.2 何时使用Connect API或客户端API 154
9.3 Kafka Connect 154
9.3.1 运行Connect 155
9.3.2 连接器示例:文件数据源和文件数据池 157
9.3.3 连接器示例:从MySQL到ElasticSearch 159
9.3.4 单一消息转换 164
9.3.5 深入理解Connect 167
9.4 Connect之外的选择 169
9.4.1 其他数据存储系统的数据摄入框架 169
9.4.2 基于图形界面的ETL工具 169
9.4.3 流式处理框架 170
9.5 小结 170
第 10 章 跨集群数据镜像 171
10.1 跨集群镜像的应用场景 171
10.2 多集群架构 172
10.2.1 跨数据中心通信的一些现实情况 173
10.2.2 星型架构 173
10.2.3 双活架构 175
10.2.4 主备架构 176
10.2.5 延展集群 180
10.3 MirrorMaker 181
10.3.1 配置MirrorMaker 183
10.3.2 多集群复制拓扑 184
10.3.3 保护MirrorMaker 185
10.3.4 在生产环境中部署MirrorMaker 186
10.3.5 MirrorMaker调优 189
10.4 其他跨集群镜像方案 190
10.4.1 Uber的uReplicator 190
10.4.2 LinkedIn的Brooklin 191
10.4.3 Confluent的跨数据中心镜像解决方案 191
10.5 小结 193
第 11 章 保护Kafka 194
11.1 锁住 Kafka 194
11.2 安全协议 196
11.3 身份验证 197
11.3.1 SSL 198
11.3.2 SASL 201
11.3.3 重新认证 210
11.3.4 安全更新不停机 211
11.4 加密 212
11.5 授权 214
11.5.1 AclAuthorizer 214
11.5.2 自定义授权 217
11.5.3 安全方面的考虑 219
11.6 审计 219
11.7 保护ZooKeeper 220
11.7.1 SASL 220
11.7.2 SSL 221
11.7.3 授权 221
11.8 保护平台 222
11.9 小结 223
第 12 章 管理Kafka 225
12.1 主题操作 225
12.1.1 创建新主题 226
12.1.2 列出集群中的所有主题 227
12.1.3 列出主题详情 227
12.1.4 增加分区 228
12.1.5 减少分区 229
12.1.6 删除主题 229
12.2 消费者群组 230
12.2.1 列出并描述消费者群组信息 230
12.2.2 删除消费者群组 231
12.2.3 偏移量管理 232
12.3 动态配置变更 233
12.3.1 覆盖主题的默认配置 233
12.3.2 覆盖客户端和用户的默认配置 234
12.3.3 覆盖broker的默认配置 235
12.3.4 查看被覆盖的配置 236
12.3.5 移除被覆盖的配置 236
12.4 生产和消费 236
12.4.1 控制台生产者 237
12.4.2 控制台消费者 238
12.5 分区管理 241
12.5.1 首选首领选举 241
12.5.2 修改分区的副本 242
12.5.3 转储日志片段 246
12.5.4 副本验证 248
12.6 其他工具 248
12.7 不安全的操作 249
12.7.1 移动集群控制器 249
12.7.2 移除待删除的主题 249
12.7.3 手动删除主题 250
12.8 小结 250
第 13 章 监控Kafka 251
13.1 指标基础 251
13.1.1 指标来自哪里 251
13.1.2 需要哪些指标 252
13.1.3 应用程序健康检测 253
13.2 服务级别目标 254
13.2.1 服务级别定义 254
13.2.2 哪些指标是好的SLI 255
13.2.3 将SLO用于告警 255
13.3 broker的指标 256
13.3.1 诊断集群问题 257
13.3.2 非同步分区的艺术 257
13.3.3 broker指标 261
13.3.4 主题的指标和分区的指标 268
13.3.5 Java虚拟机监控 269
13.3.6 操作系统监控 270
13.3.7 日志 272
13.4 客户端监控 272
13.4.1 生产者指标 272
13.4.2 消费者指标 274
13.4.3 配额 276
13.5 滞后监控 277
13.6 端到端监控 277
13.7 小结 278
第 14 章 流式处理 279
14.1 什么是流式处理 280
14.2 流式处理相关概念 282
14.2.1 拓扑 282
14.2.2 时间 282
14.2.3 状态 284
14.2.4 流和表 284
14.2.5 时间窗口 285
14.2.6 处理保证 287
14.3 流式处理设计模式 287
14.3.1 单事件处理 287
14.3.2 使用本地状态 288
14.3.3 多阶段处理和重分区 289
14.3.4 使用外部查找:流和表的连接 290
14.3.5 表与表的连接 291
14.3.6 流与流的连接 291
14.3.7 乱序事件 292
14.3.8 重新处理 293
14.3.9 交互式查询 294
14.4 Streams示例 294
14.4.1 字数统计 294
14.4.2 股票市场统计 296
14.4.3 填充点击事件流 298
14.5 Streams架构概览 300
14.5.1 构建拓扑 300
14.5.2 优化拓扑 301
14.5.3 测试拓扑 301
14.5.4 扩展拓扑 302
14.5.5 在故障中存活下来 304
14.6 流式处理应用场景 305
14.7 如何选择流式处理框架 306
14.8 小结 307
附录 A 在其他操作系统中安装Kafka 309
附录 B 其他Kafka工具 314
短评

挺好的,挺好的,挺好的

2022-12-01 10:49:39

产品特色