Kafka 的核心原理

本贴最后更新于 1209 天前,其中的信息可能已经事过景迁

概述

什么是 Kafka?

这里先引用官网首页的一句话:

Apache Kafka is an open-source distributed event streaming platform used by thousands of companies for high-performance data pipelines, streaming analytics, data integration, and mission-critical applications.

翻译成中文,就是 Apache Kafka 是一个开源分布式事件流平台,被数千家公司用于高性能数据管道、流分析、数据集成和关键任务应用程序。

网站上给的 Kafka 的定义着重强调的是 Kafka 在流处理方面的应用,但在实际场景中,它更多的被用来当做消息引擎,也就是说 Kafka 一款开源的 基于发布订阅模式的消息引擎系统

消息引擎

消息引擎,顾名思义,就是用来传递消息的,我们可以把它简单理解成**“信箱”**。用户 A(生产者)把消息发给消息引擎,用户 B(消费者)从消息引擎中获取消息,进行消费,而消息引擎就在其中起到了一个信箱的作用。

说道这里可能有小伙伴会有疑问了 🥱:我直接把消息从 A 发到 B 不就好了,中间为啥还要中间放个消息引擎多此一举呢?

如果生产者和消费者处理消息的步调一致,我们确实没必要中间加一个消息引擎,而在大部分业务中,两者处理消息的步调并不一致,这样可能会造成丢失的情况。我们以秒杀系统为例,在一个秒杀场景中,用户下单后会调用订单系统生成对应的订单,而处理该订单的下游可能有 多个子服务系统 ,比如调用支付宝接口和微信支付接口,查询登录状态等。显然上游的业务逻辑比较简单处理速度较快,且秒杀场景下 tps 很高,而下游处理速度远小于上游服务,如果直接对接,必然会出现订单堆积的情形,甚至可能导致下游服务崩溃。

而引入 消息引擎 之后,上游服务和下游服务直接就实现了一种解耦,上游订单服务不再直接和下游子服务进行交互,当新订单生成后它仅仅向 Kafka Broker 发送一条订单消息即可。而下游各个子服务订阅 Kafka 的相应主题,并实时从各自分区里边拿数据进行处理,从而实现了上游订单和下游处理服务之间的解耦。这样当出现秒杀业务时,Kafka 能够瞬间增加的订单流量全部以消息形式保存到对应的主题中,既不影响上游的 TPS,也给了下游子服务流出充足的时间来消费它。

我们可以简单借助两张图来说明,在引入消息队列之前,PV 图是这样色的

image.png

很明显流量在某个瞬间达到了峰值,然后瞬间又降低了,但引入消息引擎之后,PV 图发生了变化:

image.png

好像山峰被削平了意义,这就是消息队列的作用即“削峰填谷”,实现流量平滑过渡。

知道了消息引擎的作用,接下来我们聚焦于消息引擎本身,一个消息引擎本质上讲需要做好三件事:

  1. 定义好消息编码格式
  2. 实现消息的传递
  3. 实现消息的保存

那 Kafka 是如何解决上边三个问题呢?

消息格式

当前对消息的编码格式其实有许多种成熟的解决方案,比如比如非常普遍的 CSV、JSON 或 YAML,再比如谷歌的 Protocol Buffer 或 Facebook 的 Thrift。这些都是很酷的方法,但 Kafka 上边方法都用 😄😈。它为了减少消息的体积,节省空间,直接选择的 ByteBuf 这种紧密的二进制存储格式

具体消息的消息格式被分成两个层次,消息集合和消息:消息集合(message set)以及消息(message)。两者的关系可以用一张图来描述:

image.png

一个消息集合中包含若干条日志项(record item),而日志项才是真正封装消息的地方。Kafka 底层的消息日志由一系列消息集合日志项组成。Kafka 通常不会直接操作具体的一条条消息,它总是在消息集合这个层面上进行写入操作。

消息体之上有了两个字段 offset 以及 message size 其中其中 offset 标志其在分区中的偏移量,这个 offset 是逻辑值而并非实际值,message size 则标识的消息的大小,两者一起构成了日志的头部,固定 12B。

v0

具体到消息层面上来说,消息的格式经历过两次演变,对于 Kafka 消息格式的第一个版本,我们把它称之为 v0,在 Kafka 0.10.0 版本之前都是采用的这个消息格式。

image.png

从 crc32 字段开始算,每个字段含义如下:

字段名称 含义 大小
crc32 crc32 校验值,用来做信息校验 4B
attributes 消息的属性,低 3 位表示压缩类型:
0 表示 NONE、1 表示 GZIP、2 表示 SNAPPY、3 表示 LZ4(LZ4 自 Kafka 0.9.x 引入),其余位保留。
1B
magic 消息格式版本号,V0 版本 magic 为 0 1B
key length 表示消息的 key 的长度。如果为-1,则表示没有设置 key,即 key=null。 4B
key(可选) 如果没有 key 则无此字段。 非固定
value length 实际消息体的长度。如果为-1,则表示消息为空。 4B
value 消息体,可以为空 非固定

从这个表格中,我们不难算出,对于 V0 协议来说,一个消息的最小大小为:crc32 + magic + attributes + key length + value length = 4B + 1B + 1B + 4B + 4B =14B,也就是说 v0 版本中一条消息的最小长度为 14B,如果小于这个值,那么这就是一条破损的消息而不被接受。

v1

V0 某种程度上讲,重要字段都已经包含了,但存在着一个较大的缺陷---没有时间戳,无法删除一些超时,失效的消息。因而 kafka 从 0.10.0 版本开始到 0.11.0 版本消息格式从 V0 升级到了 V1,这两个版本的消息格式之间仅仅就差了一个 timestamp 字段,表示消息的时间戳,V1 版本的消息结构图如下所示

image.png

较之于 v0 版本,v1 版本的消息格式发生了如下变化:

字段名称 含义 变化
👉🏻 magic 版本号 变成了 1
👉🏻 attributes 消息属性 原本只用了低三位表示压缩类型,现在将第 4 位利用了起来,用来表示 timestamp 的含义:
其中 0 表示 timestamp 为 CreateTime 即创建的时间,1 表示 timestamp 类型为 LogAppendTime
即日志追加时间,可以理解成是修改时间
➕ timestamp 时间戳 增加了时间戳属性,大小为 8B

该版本协议最小的大小也变成了 14+8=22B

v2

kafka 从 0.11.0 版本开始所使用的消息格式版本为 v2,这个版本的消息相比于 v0 和 v1 的版本而言改动很大,在消息集层面上看,消息集合的名称发生了变化,V2 之前消息集称之为 Message Set 而 v2,则改成 Record Batch,结果也发生了变化,具体如下图所示:

image.png

  • CRC 值从消息中移除,被迁移到消息批次中
  • first offset:表示当前 RecordBatch 的起始位移。
  • length:计算 partition leader epoch 到 headers 之间的长度。
  • partition leader epoch:用来确保数据可靠性,详细可以参考 KIP-101
  • magic:消息格式的版本号,对于 v2 版本而言,magic 等于 2。
  • attributes:消息属性,注意这里占用了两个字节。低 3 位表示压缩格式,可以参考 v0 和 v1;第 4 位表示时间戳类型;第 5 位表示此 RecordBatch 是否处于事务中,0 表示非事务,1 表示事务。第 6 位表示是否是 Control 消息,0 表示非 Control 消息,而 1 表示是 Control 消息,Control 消息用来支持事务功能。
    last offset delta:RecordBatch 中最后一个 Record 的 offset 与 first offset 的差值。主要被 broker 用来确认 RecordBatch 中 Records 的组装正确性。
  • first timestamp:RecordBatch 中第一条 Record 的时间戳。
    max timestamp:RecordBatch 中最大的时间戳,一般情况下是指最后一个 Record 的时间戳,和 last offset delta 的作用一样,用来确保消息组装的正确性。
  • producer id:用来支持幂等性,详细可以参考 KIP-98。
  • producer epoch:和 producer id 一样,用来支持幂等性。
  • first sequence:和 producer id、producer epoch 一样,用来支持幂等性。
  • records count:RecordBatch 中 Record 的个数。

从具体的消息格式角度来看,字段的类型借鉴 Protocol Buffer 引入 varint 类型和 ZigZag 编码。

Varints 是使用一个或多个字节来序列化整数的一种方法,数值越小,其所占用的字节数就越少。ZigZag 编码以一种锯齿形(zig-zags)的方式来回穿梭于正负整数之间,以使得带符号整数映射为无符号整数,这样可以使得绝对值较小的负数仍然享有较小的 Varints 编码值,比如-1 编码为 1,1 编码为 2,-2 编码为^1。详细可以参考:https://developers.google.com/protocol-buffers/docs/encoding

v2 版本的消息格式去掉了 crc 字段,将其移动到消息集合字段中(公共部分提到消息集合中,一个消息集合只需要保存一个字段,可以节省空间,提高压缩比),另外增加了 length(消息总长度)、timestamp delta(时间戳增量)、offset delta(位移增量)和 headers 信息,并且 attributes 被弃用了,具体变化如下表所示:

字段名称 含义 变化
➕ length 消息字段总长度 新增
➕ timestamp delta 时间戳增量 新增,通常一个 timestamp 需要占用 8 个字节,在这里
保存和信息集合的时间戳差值的话可能进一步节省空间
➕offset delta 位移增量 新增,保存和 Recorbatch 起始位移的差值
➕headers 头信息 新增,用来支持应用级别的扩展,不需要像 v0 和 v1 版本
一样不得不将一些应用级别的属性嵌入在消息体里面
➖attribute 消息属性 弃用,但在消息格式中仍占据 1B 大小,以备未来扩展

消息批次最小为 61 字节,相比 V0、V1 版本要大很多。当存储多条消息时,由于 V2 版本主要是通过可变长度提高了消息格式的空间使用率,并将某些字段移到消息批次中,同时消息批次可容纳多条消息,因而整体的大小会比 v1 和 v0 小很多。

为了进一步减小消息长度,节省磁盘空间和带宽,Kafka 也提供了消息压缩的功能。

消息的压缩

尤其是在 V2 版本消息格式的变化(比如使用了 varint 类型,将大量公共信息从消息移动到消息集合体中),使得消息的压缩方法从原来以消息为单位进行压缩,变成现在以消息集合为单位进行压缩,使得压缩效率大幅度提高,下图展示了两者压缩效果的比较图:

image.png

如何开启压缩

在 Kafka 中压缩可能发生在两个地方:生产者端和 Broker 端。

生产者端:

生产者端如果想要启动压缩,只要配置响应参数即可:

Properties props = new Properties();
props.put("bootstrap.servers", "localhost:9092");
props.put("acks", "all");
props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");
props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");
// 开启GZIP压缩
props.put("compression.type", "gzip");

Producer<String, String> producer = new KafkaProducer<>(props);

其中第 7 行代码就是配置生产者端 Producer 的压缩算法使用的是 GZIP。

也就是说配置完该参数之后,Kafka 在发送消息之后都会讲消息压缩成 GZIP 方法在发送到 Broker 端。

Broker 端

同样的 Broker 启动消息压缩的方法也非常简单,只需要将 compression.type 设置响应的压缩值即可,但需要注意的是,这个参数的意思不是说对接收的消息都进行压缩,而是指的是接收消息的格式,也就是说在 Broker 端配置这个参数之后,Broker 端如果收到的消息是其想要的压缩类型,则直接接收,如果是其他类型则 Broker 端则需要进行解压和重压缩操作将消息转换成指定的格式。

何时会压缩

对于生产者端来说:只要开启了压缩,在发送的消息都会压缩成配置的格式,正如上边的代码,配置消息的压缩类型为**“gzip”**,那么对于发送的所有消息都会先压缩成“gzip”格式然后再发送。

但对 broker 端则不同,下边两种情况会发生压缩:

  1. Broker 端和 Producer 端配置了不同的压缩参数
    在这种情况下,Broker 会先将接受到的信息进行解压缩,然后再压缩成其配置的格式。
  2. Broker 端发生了消息格式转换。

所谓的消息格式转换主要是为了兼容老版本的消费者程序。还记得之前说过的 V1、V2 版本吧?在一个生产环境中,Kafka 集群中同时保存多种版本的消息格式非常常见。为了兼容老版本的格式,Broker 端会对新版本消息执行向老版本格式的转换。这个过程中会涉及消息的解压缩和重新压缩。一般情况下这种消息格式转换对性能是有很大影响的,除了这里的压缩之外,它还让 Kafka 丧失了引以为豪的 "零拷贝特性"特性。

何时解压缩

有压缩必然有解压缩,通常来说压缩是发生在消费者程序中,也就是说消费者端从 Broker 端获取到消息之后,需要自行解压还原成之前的消息。

可能会有小伙伴问了,Consumer 端是如何知道具体的消息类型的呢?

其实就是在消息中,Kafka 会将启用何种压缩算法封装到消息集合中,这样 Consumer 获取到消息集合之后就知道了这些消息使用了哪种压缩算法。

如果简单总结一下,三者一个关系其实就是:生产者端压缩,Broker 端尽量保持,消费者端解压缩

最佳实践

前面一些小节对压缩的时机原理进行了简单的描述,但具体我们在什么情况下启用压缩呢?

你现在已经知道 Producer 端完成的压缩,那么启用压缩条件就是:

  • Producer 程序运行机器上的 CPU 资源要很充足。如果 Producer 运行机器本身 CPU 已经消耗殆尽了,那么启用消息压缩无疑是雪上加霜,只会适得其反。
  • 另外如果我们带宽资源有限,我们也要尽量开启压缩

消息的压缩过程我们简单了解了,但消息在不同端之间传输的时候又经历了什么呢?

消息传输

在具体讲消息传输部分之前,我们应该先看一张 Kafka 的一张整体架构图^4

整个架构简单来分的话可以分成三端,生产者、消费者和 Broker 端。

向主题发布消息的客户端应用程序称为生产者(Producer),生产者程序通常持续不断地向一个或多个主题发送消息,而订阅这些主题消息的客户端应用程序就被称为消费者(Consumer)。和生产者类似,消费者也能够同时订阅多个主题的消息。我们把生产者和消费者统称为客户端(Clients)。

而与之相对的是 Brokor 端服务器端,Kafka 的服务器端由被称为 Broker 的服务进程构成,即一个 Kafka 集群由多个 Broker 组成,Broker 负责接收和处理客户端发送过来的请求,以及对消息进行持久化。其实一个 Broker 我们可以简单理解为一个 kafka 服务器端程序进程。为了保证 Kafka 的高可用,一般将多个 Broker 进行运行在多个不同的主机上。

当然为了提高 Broker 集群的可用性,Broker 引入了备份机制,备份的思想非常简单也就是把相同的数据拷贝到多台机器上,这些被拷贝的数据就称之为副本。在 Kafaka 中由两类副本:领导者副本和追随者副本,前者对外提供服务,后者被动的追随领导者副本进行数据同步。这可能跟我们接触的 mysql 集群不同。

虽然有了副本可以解决数据持久化或者消息不丢失的问题,但是却没有解决伸缩性问题(动态扩容的问题),什么伸缩性问题呢?简单来说随着数据规模的增大,领导者副本积累了太多的数据以至于单台 Broker 机器都无法容纳了,此时应该怎么办呢?一个最简单的思想就是把数据分成多块,存储到不同的 Broker 上。

Kafka 中的分区机制指的是将每个主题划分成多个分区(Partition),每个分区是一组有序的消息日志。生产者生产的每条消息只会被发送到一个分区中,也就是说如果向一个双分区的主题发送一条消息,这条消息要么在分区 0 中,要么在分区 1 中。如你所见,Kafka 的分区编号是从 0 开始的,如果 Topic 有 100 个分区,那么它们的分区号就是从 0 到 99。

通过前面的描述我们可以简单总结出 kafka 的消息架构:

  • 第一层是主题层,每个主题可以配置 M 个分区,而每个分区又可以配置 N 个副本。
  • 第二层是分区层,每个分区的 N 个副本中只能有一个充当领导者角色,对外提供服务;其他 N-1 个副本是追随者副本,只是提供数据冗余之用。
  • 第三层是消息层,分区中包含若干条消息,每条消息的位移从 0 开始,依次递增。最后,客户端程序只能与分区的领导者副本进行交互。

了解 kafka 的基础概念之后,我们简单总结下消息产生到消费的整个过程。

一般来说一个消息从被产生到被消费会经历如下一个过程:

首先生产者会产生指定主题的消息(当然该消息根据配置可能会被压缩),多个消息构成一个 Record Batch 然后通过建立的网络连接发送到 Broker 端,Broker 端接受到消息之后将对应的 Record Bath 写入到指定主题的主副本(如何确定)的对应分区中(如何定位),Follow 副本会主动从 Leader 副本中拉取消息实现副本同步,在同步完成(完成标志?)之后,该主题订阅者中对应该分区的消费者会拉去消息进行消费,整个过程完成。

当然上边只是粗略的描述了一下消息所经历的过程,可能小伙伴听完之后可能会有很多疑问:

  • 消费者是如何与 Broker 端建立网络连接的?会建立多少网络连接?
  • Broker 端接收到消息之后会选择哪个分区来写入消息呢?
  • Broker 端如何确定主题对应的主副本呢?
  • 主从副本之间是如何实现消息同步的呢?
  • ....

这些问题,我们下面的章节都会逐个回答。现在我们先将话题切回本章主题,也即消息是如何建立连接进行传输的?

Java 生产者如何管理 TCP 连接

首先我们要知道 Kafka 所有的通信都是基于 TCP 的,而不是基于 HTTP 或者其他协议,具体这样设计原因,从社区的角度来看,在开发客户端时,人们能够利用 TCP 本身提供的一些高级功能,比如多路复用请求以及同时轮询多个连接的能力。

Kafka 的 Java 生产者 API 主要的对象就是 KafkaProducer。通常我们开发一个生产者的步骤有 4 步:

  • 第 1 步:构造生产者对象所需的参数对象。
  • 第 2 步:利用第 1 步的参数对象,创建 KafkaProducer 对象实例。
  • 第 3 步:使用 KafkaProducer 的 send 方法发送消息。
  • 第 4 步:调用 KafkaProducer 的 close 方法关闭生产者并释放各种系统资源。

具体代码如下:


Properties props = new Properties ();
props.put(“参数1”, “参数1的值”);
props.put(“参数2”, “参数2的值”);
……
try (Producer<String, String> producer = new KafkaProducer<>(props)) {
            producer.send(new ProducerRecord<String, String>(……), callback);
  ……
}

❓ 从代码上,好像并没有显示的用代码建立连接,那它的连接是什么时候建立的呢?

首先,生产者应用在创建 KafkaProducer 实例时是会建立与 Broker 的 TCP 连接的。其实这种表述也不是很准确,应该这样说:在创建 KafkaProducer 实例时,**生产者应用会在后台创建并启动一个名为 Sender 的线程,该 Sender 线程开始运行时首先会创建与 Broker 的连接。**我们结合一段日志来看:

image.png

从第一段日志上可以看到,KafkaProducer 会先发送一个元数据请求(sending metadata request),而这个请求就是我们前边说的 Sender 线程建立发起的。

这个时候可能会有小伙伴问了,如果有多个 Broker 怎么办?

这个就设计到 Producer 创建时 bootstrap.servers 参数了,该参数是 Producer 的核心参数之一,指定了这个 Producer 启动时要连接的 Broker 地址。因而 Sender 线程在建立连接时,会和 bootstrap.servers 设置的所有 Broker 建立连接。因此如果你在 bootstrap.servers中设置了多个 100 个 Broker,那么你的 Producer 在启动的时候就会和这 100 个 Broker 建立 TCP 连接。

在实际生产中,是不太建议在 bootstrap.servers 参数设置所有集群信息的,因为这样建立连接时效率很慢而且网络代价很大,通常情况下设置 3 到 4 台就可以了,因为实际上只要 Producer 建立起与任意一台 Broker 连接之后就能拿到整个 Broker 的集群信息,因而没必要在该参数中配置所有的 Broker。

从第 3~4 行日志,可以看到 Producer 获取元数据后,开始于其他未建立起连接的 Broker 建立起连接。

从前边的分析,我们可以看到 Producer 和 Broker 建立连接的地方有两处:

  1. 先建立起 bootstap.servers 中 Broker 的连接
  2. 获取集群元数据后建立起其他未连接的 Broker 建立起连接(可能,因为如果已经和所有集群中 Broker 连接完成了,则不会再建立新连接)

除此之外,实际上 TPC 连接还可能在发送消息的时候当 Producer 发现尚不存在与目标 Broker 的连接,也会创建一个。

纵观它的连接过程,其实我们可以发现其不足之处,首先在 Producer 创建连接的时候使用的 KafkaProducer 是线程安全的类,但其在创建 KafkaProducer 实例的时候去创建连接,这样会有风险:在对象构造器中器启动线程会有指针逃逸的风险。
另一问题,就是 KafkaProducer 建立连接的时候有必要跟所有的 Broker 都建立连接吗?

试想一下,在一个有着 1000 台 Broker 的集群中,你的 Producer 可能只会与其中的 3~5 台 Broker 长期通信,但是 Producer 启动后依次创建与这 1000 台 Broker 的 TCP 连接。一段时间之后,大约有 995 个 TCP 连接又被强制关闭。这难道不是一种资源浪费吗?很显然,这里是有改善和优化的空间的。 比如可以将连接延后到实际需要的时候再建立呢?😄

❓❓ 有连接的建立必然就会有连接的关闭,那 TPC 连接是何时关闭的呢?

Producer 关闭连接的方式有两种:

第一种是用户主动关闭

比如调用 producer.close() 主动关闭或者调用 kill命令 杀掉线程

第二种是 Kafaka 自动关闭:

与 Producer 端参数 connections.max.idle.ms 的值有关。默认情况下该参数值是 9 分钟,即如果在 9 分钟内没有任何请求“流过”某个 TCP 连接,那么 Kafka 会主动帮你把该 TCP 连接关闭。用户可以在 Producer 端设置 connections.max.idle.ms=-1 禁掉这种机制。一旦被设置成 -1,TCP 连接将成为永久长连接。当然这只是软件层面的“长连接”机制,由于 Kafka 创建的这些 Socket 连接都开启了 keepalive,因此 keepalive 探活机制还是会遵守的。

Java 消费者如何管理 TCP 连接

消费者要进行消费,构建的实例是 KafkaConsumer,但与 KafkaProducer 不同的是,构建 KafkaConsumer 时不会创建任何 TCP 连接,也就是说当执行完 neww KafkaConsumer(properties) 之后不会创建任何 TCP 连接。
而是在调用 KafkaConsumer.poll() 方法时被创建,这个设计也就避免了我们前边说的 this 指针逃逸的问题 😄😄。从这点看,这样的设计可能会更好。
具体来说在调用 poll() 方法内部会有三个时机创建 TCP 连接:

  1. 发起 FindCoordinator 请求时。
    消费者端有个组件叫 协调者(Coordinator),它驻留在 Broker 内存中,负责消费者组的组成员管理和各个消费者的位移提交管理。当消费者程序首次调用 poll() 时会向 Kafka 发送一个名为 FindCorrdinator 的请求,去获取哪个 Broker 是管理它的协调者
    但消费者应该向哪个 Broker 发起这个请求呢?理论上任何一个 Broker 都可以回答这个问题,也就是说消费者端可以向任意服务器发送 FindCorrdinator 请求,但出于负载均衡考虑KafaConsumer 会向消费者端所连接的 Broker 中负载(待发送请求最少的 Broker)最小的那个发送该请求。当 然,这种评估是 Broker 的单项评估,可能并不是最优。
  2. 连接协调者时
    Broker 处理完上一步发送的 FindCoordinator 请求之后,会返还对应的响应结果(Response),显式地告诉消费者哪个 Broker 是真正的协调者,因此在这一步,消费者知晓了真正的协调者后,会创建连向该 Broker 的 Socket 连接。只有成功连入协调者,协调者才能开启正常的组协调操作,比如加入组、等待组分配方案、心跳请求处理、位移获取、位移提交等。
  3. 消费数据时
    消费者会为每一个要消费的分区创建与该分区领导者副本所在的 Broker 连接的 TCP,也就是说也和所消费分区的领导者副本所在的 Broker 全都建立起连接,举个例子,假设消费者要消费 5 个分区的数据,这 5 个分区各自的领导者副本分布在 4 台 Broker 上,那么该消费者在消费时会创建与这 4 台 Broker 的 Socket 连接。

通过上面的描述,我们思考这样一个问题:

假设有个 Kafka 集群由 2 台 Broker 组成,有个主题有 5 个分区,当一个消费该主题的消费者程序启动时,你认为该程序会创建多少个 Socket 连接?为什么?

很显然,一共会创建四个 TCP,稳定后会变成三个,具体来说:

  • 第一类:先以发送携带“假”ID 的 FindCorrdinator,请求获取协调者信息,后续该请求会因超时而被断开
  • 然后连接对应主题的协调者(Corrdinator)
  • 与分区所在的两个 Broker 建立两个连接。

❓❓ 同样的,TCP 连接何时关闭呢?

和生产者类似,消费者关闭 Socket 也分为主动关闭和 Kafka 自动关闭。

  1. 主动关闭:调用 KafkaConsumer.close()方法来关闭,或者执行 kill 命令
  2. 自动关闭:消费者端参数 connection.max.idle.ms 控制的,该参数现在的默认值是 9 分钟,即如果某个 Socket 连接上连续 9 分钟都没有任何请求“过境”的话,那么消费者会强行“杀掉”这个 Socket 连接。

另外和生产者不同的是,消费者端的连接可能会被动关闭,比如如果 Broker 端 heartbeat.interval.ms 参数设置过小,Consumer 端两次轮询时间大于该参数值,则 KafaConsumer 和 Broker 端建立的连接可能会被中断。

另一方面,消费者端的设计可能也有些问题,第一类 TCP 连接仅仅是为了首次获取元数据而创建的,后面就会被废弃掉。最根本的原因是,消费者在启动时还不知道 Kafka 集群的信息,只能使用一个“假”的 ID 去注册,即使消费者获取了真实的 Broker ID,它依旧无法区分这个“假”ID 对应的是哪台 Broker,因此也就无法重用这个 Socket 连接,只能再重新创建一个新的连接。

造成这样的原因,目前 Kafka 仅仅通过 ID 这一个维度的数据来表征 Socket 信息,这点信息显然不能够确定连接的是那一台 Broker,也许未来,社区应该考虑使用 <主机名,端口,ID> 三元组的方式来定位 Socket 的资源,这样或许能够让消费者程序少创建一些 TCP 连接。

连接建立之后还不算完,我们需要保证消息能够正确的被送达,kafka 是如何做到这一点的呢?

Kafka 消息交付的可靠性保障

所谓的消息交付可靠性保障,是指 Kafka 对 Producer 和 Consumer 要处理的消息提供什么样的承诺。常见的承诺有以下三种:

  • 最多一次(at most once):消息可能会丢失,但绝不会被重复发送。
  • 至少一次(at least once):消息不会丢失,但有可能被重复发送。
  • 精确一次(exactly once):消息不会丢失,也不会被重复发送。

其中 Kafka 默认情况下支持的第二种可靠性保障,即能够保证消息不会丢失,这一点比较容易,只要保证发送失败后增加重试机制即可。

但我们也可以配置 Kafka 支持第三种可靠性保证,即精确一次Kafa 是如何实现这一点呢?

简单来说,kafka 是通过两种机制来保证的,幂等性事务

幂等性 Producer

什么是幂等性呢?

在数学中,指的是 f(f(x)) = f(x),即 x 的重复性嵌套输入不影响输出的结果值,迁移到软件开发中,一次请求某个资源或者多次请求某个资源 必须有一致性的结果 。例如,在针对同一个订单,一次下单请求和多次下单请求的结果应该是一致的,最终都是该订单下单成功。

幂等性有很多好处,其最大的优势在于我们可以安全地重试任何幂等性操作,反正它们也不会破坏我们的系统状态。

在 kafka 中 Producer 默认是不支持幂等性的,但我们可以创建幂等性 Producer,它其实是 0.11.0.0 版本引入的新功能。在此之前,Kafka 向分区发送数据时,可能会出现同一条消息被发送了多次,导致消息重复的情况。在 0.11 之后,指定 Producer 幂等性的方法很简单,仅需要设置一个参数即可,即 props.put(“enable.idempotence”, ture),或 props.put(ProducerConfig.ENABLE_IDEMPOTENCE_CONFIG, true)

底层实现方式也非常典型:

首先给 Broker 增加了 ProducerID,每个 Producer 初始化时都会赋予一个唯一的 ID 用来表征该 Producer,该字段对客户端不可见。另外通过字段 producer epoch 来表征唯一的消息集合。

在 Broker 实际写入消息之前,通过前边的两个字段从查询当前写入的消息的状态,如果已经写过则直接返回 ack,而不需要重复写入。如果未写入过该消息,先将消息放到缓存中,然后执行写入逻辑。

看上去,幂等性 Producer 的功能很酷,使用起来也很简单,仅仅设置一个参数就能保证消息不重复了,但实际上,我们必须要了解幂等性 Producer 的作用范围

  • 首先,它只能保证单分区上的幂等性,即一个幂等性 Producer 能够保证某个主题的一个分区上不出现重复消息,它无法实现多个分区的幂等性。
  • 其次,它只能实现单会话上的幂等性,不能实现跨会话的幂等性。这里的会话,你可以理解为 Producer 进程的一次运行。当你重启了 Producer 进程之后,这种幂等性保证就丧失了。

如果我们想要实现多分区多会话上消息无重复,则需要使用 事务(transcation) 或者 依赖事务型Producer

事务

Kafka 的事务概念类似于我们熟知的数据库提供的事务。在数据库领域,事务提供的安全性保障是经典的 ACID,即原子性(Atomicity)、一致性 (Consistency)、隔离性 (Isolation) 和持久性 (Durability)。
Kafka 自 0.11 版本开始也提供了对事务的支持,目前主要是在 read committed 隔离级别上做事情。它能保证多条消息原子性地写入到目标分区,同时也能保证 Consumer 只能看到事务成功提交的消息.。

在讲完传输部分内容之后,接下来我们了解一下,消息引擎的另一个重点知识,即消息是如何被保存的。

事务型 Producer

事务型 Producer 能够保证将消息原子性地写入到多个分区中。这批消息要么全部写入成功,要么全部失败。另外,事务型 Producer 也不惧进程的重启。Producer 重启回来后,Kafka 依然保证它们发送消息的精确一次处理。

设置事务型 Producer 的方法也很简单,满足两个要求即可:

  1. 和幂等性 Producer 一样,开启 enable.idempotence = true。
  2. 设置 Producer 端参数 transactional. id。最好为其设置一个有意义的名字。

另外事务型 Producer 和普通的 Producer 也有一些不同:

producer.initTransactions();
try {
            producer.beginTransaction();
            producer.send(record1);
            producer.send(record2);
            producer.commitTransaction();
} catch (KafkaException e) {
            producer.abortTransaction();
}

和普通 Producer 代码相比,事务型 Producer 的显著特点是调用了一些事务 API,如 initTransaction、beginTransaction、commitTransaction 和 abortTransaction,它们分别对应事务的初始化、事务开始、事务提交以及事务终止。

这段代码能够保证 record1 和 record2 能被当做一个事务统一提交到 Kafka 中,那么要么它们统一提交成功,要么统一提交失败。

❓❓ 通过对幂等性和事务的支持,我们可以保证消息交付的可靠性,消息被发到 Broker 集群之后,消息又是被如何保存的呢?

消息保存

Broker 端获取到消息之后,会按照既定的分区策略(定位消息所要发送的哪个分区的算法),确定消息要保存的分区,然后向该分区的主分区写入消息其他 Follower 分区主分区拉取消息进行同步,这就是整个消息保存的过程。

❓❓ 从上边的描述中也可以看出来,Kafka 生产者在确定消息的时候,是按照提前配置好的"分区策略"来确定消息所要保存的分区,那 Kafka 支持哪些分区策略呢?我们该如何配置呢?

分区策略

对数据进行分区主要作用为了提高系统的高伸缩性,分区之后主分区也会分布在不同的 Broker 上,这也也就提高了系统的负载均衡能力。

自定义分区策略

kafka 默认使用了"1 轮询策略",如果我们想要更换分区策略的话,需要显式地配置生产者端的参数 partitioner.class。这个参数该怎么设定呢?方法很简单,在编写生产者程序时,你可以编写一个具体的类实现 o rg.apache.kafka.clients.producer.Partitioner 接口。这个借口定义了两个方法:partition()close(),通常你只需要实现最重要的 partition 方法。我们来看看这个方法的方法签名:

int partition(String topic, Object key, byte[] keyBytes, Object value, byte[] valueBytes, Cluster cluster);

这里的 topic、key、keyBytes、value 和 valueBytes 都属于消息数据,cluster 则是集群信息(比如当前 Kafka 集群共有多少主题、多少 Broker 等)。通过这些参数,我们自定义分区策略代码,返回分区编号结果。只要你自己的实现类定义好了 partition 方法,同时设置 partitioner.class 参数为你自己实现类的 Full Qualified Name,那么生产者程序就会按照你的代码逻辑对消息进行分区。

理论上分区的策略多种多样,但常见的分区策略主要有三种:

1. 轮询策略

轮询策略 很容易理解,即顺序分配,比如如果一个主题下游三个分区,那么第一条消息会被发送到 0 号分区,第二条消息会被发送到 1 号分区,第三条消息会被发送到 2 号分区,第四条消息会被发送到 4 号分区,以此类推....

image.png

轮询策略有非常优秀的负载均衡表现,它总是能保证消息最大限度地被平均分配到所有分区上,故默认情况下它是最合理的分区策略,也是我们最常用的分区策略之一。

2. 随机策略

所谓 随机策略 也就是我们随机的把消息放置到任意分区,如下图所示:

image.png

如果想要实现分区策略,也非常简单,只需要 partition() 方法中写入下面两行代码:

List<PartitionInfo> partitions = cluster.partitionsForTopic(topic);
return ThreadLocalRandom.current().nextInt(partitions.size());

本质上看随机策略也是力求将数据均匀地打散到各个分区,但从实际表现来看,它要逊于轮询策略,所以如果追求数据的均匀分布,还是使用轮询策略比较好。

3.按消息键保序策略

Kafka 在存的时候是以键值对的形式存的,因而对于 key 按照业务需求来设置不同的值,比如设置成部门 ID,那我们想要具有相同 key 的消息都保存在一个分区中,那么我们就需要该策略。也就是说 按消息键保存策略 是根据消息的 key 来进行分区的,其示意图如下所示:

image.png

这种策略其实当我们希望消息有序的时候很常用,通过这种策略,我们可以把相同的 key 的消息放到同一个分区中,这样同一个分区中的消息就天然具有了有序性

其具体实现也非常简单,只需要两行代码:

List<PartitionInfo> partitions = cluster.partitionsForTopic(topic);
return Math.abs(key.hashCode()) % partitions.size();

确定分区之后,消息便可以指定分区的主分区中写入消息,写入完成之后还不算完,还必须要等待跟随者分区数据同步之后才能进行消息,这就引入 Kafka 的"副本机制"

副本机制

通常来讲一个系统引入副本会提供下边三个好处:

  1. 数据冗余,提高数据可用性
  2. 提供伸缩性,支持横向扩展,能够通过增加机器的方式来提升读性能,进而提高读操作吞吐量。
  3. 提高数据局部性,允许将数据放入与用户地理位置相近的地方,从而降低系统延时。

但由于 Kafka 只允许领导者副本对外提供服务,其他副本只是被动的同步数据,因而,Kafka 的副本机制只提供了第一个好处,后边两个好处都没有。但另外两种特性,Kafka 通过了分区来实现(想一想是为什么?)。

Kafka 的副本机制工作原理如下:

image.png

  1. 第一,在 Kafka 中,副本分成两类:领导者副本(Leader Replica)和追随者副本(Follower Replica)。每个分区在创建时都要选举一个副本,称为领导者副本,其余的副本自动称为追随者副本。
  2. 只有领导者副本对外提供服务,追随者副本不处理客户端请求,它唯一的任务就是从领导者副本中异步拉取消息,并提交到自己日志中,实现与领导者副本的同步。
  3. 当领导者副本挂掉之后,或者领导者副本所在的 Broker 宕机,Kafka 依托 Zookeeper 的监控功能能够实时感知到,进而进行新一轮的选举,从追随者副本中选择新的领导者副本

Kafka 这样设计副本机制有什么好处呢?

  1. 方便实现**“Read-your-writes"**
    所谓 Read-your-writes,顾名思义就是,当你使用生产者 API 向 Kafka 成功写入消息后,马上使用消费者 API 去读取刚才生产的消息。比如发微博,我们在发布之后,当然希望马上就被看到,但如果副本对外提供服务,则副本需要时间和领导者副本数据进行同步,这样就不能实现 Read-your-writes.
  2. 方便实现单调读(Monotonic Reads)
    **什么是单调读呢?**就是对于一个消费者用户而言,在多次消费消息时,它不会看到某条消息一会儿存在一会儿不存在。
    如果允许追随者副本提供读服务,那么假设当前有 2 个追随者副本 F1 和 F2,它们异步地拉取领导者副本数据。倘若 F1 拉取了 Leader 的最新消息而 F2 还未及时拉取,那么,此时如果有一个消费者先从 F1 读取消息之后又从 F2 拉取消息,它可能会看到这样的现象:第一次消费时看到的最新消息在第二次消费时不见了,这就不是单调读一致性。但是,如果所有的读请求都是由 Leader 来处理,那么 Kafka 就很容易实现单调读一致性。

另外由于追随者副本不提供服务,只是定期地异步拉取领导者副本中的数据而已。既然是异步的,就存在着不可能与 Leader 实时同步的风险。那 Kafka 是如何解决该问题的呢?

Kafka 引入了 In-sync Replicas,也就是所谓的 ISR 副本集合。ISR 中的副本都是与 Leader 同步的副本,相反,不在 ISR 中的追随者副本就被认为是与 Leader 不同步的。Leader 副本天然就在 ISR 中。也就是说,ISR 不只是追随者副本集合,它必然包括 Leader 副本。甚至在某些情况下,ISR 只有 Leader 这一个副本。想要进入 ISR 需要满足一定的条件。

这个条件就是 Broker 端参数 replica.lag.time.max.ms 参数值。这个参数的含义是 Follower 副本能够落后 Leader 副本的最长时间间隔,当前默认值是 10 秒。这就是说,只要一个 Follower 副本落后 Leader 副本的时间不连续超过 10 秒,那么 Kafka 就认为该 Follower 副本与 Leader 是同步的,即使此时 Follower 副本中保存的消息明显少于 Leader 副本中的消息。

我们在前面说过,Follower 副本唯一的工作就是不断地从 Leader 副本拉取消息,然后写入到自己的提交日志中。如果这个同步过程的速度持续慢于 Leader 副本的消息写入速度,那么在 replica.lag.time.max.ms 时间后,此 Follower 副本就会被认为是与 Leader 副本不同步的,因此不能再放入 ISR 中。此时,Kafka 会自动收缩 ISR 集合,将该副本“踢出”ISR。倘若该副本后面慢慢地追上了 Leader 的进度,那么它是能够重新被加回 ISR 的。这也表明,ISR 是一个动态调整的集合,而非静态不变的。

而领导者副本在选举的时候,默认情况下都是从 ISR 集合的副本中进行选举。

通过副本机制,进行领导者副本和追随者副本数据之间的同步后,输入便保存成功,成功之后,消费者就可进行消费了。😄😄

消息消费

就消息引擎而言,消费者支持的消息有两种:

  1. 点对点模式:类似于打电话,一对一传输
  2. 发布/订阅模式:和点对点模型不同的是,这个模型可能存在多个发布者向相同的主题发送消息,而订阅者也可能存在多个,它们都能接收到相同主题的消息。跟日常生活中订报纸,非常相似。

Kafka 比较酷,它这两种方式都支持,那它是怎么实现对这两种消息消费方式都支持的呢?

那就不得不提 消费者组 这一 Kafka 非常有亮点的设计,什么是消费者组呢?用一句话概括就是:Consumer Group 是 Kafka 提供的可供扩展的具有容错性的消费者机制。
一个消费者组内包含多个消费者,它们共享同一个消费者组 ID,称之为 Group ID,组内所有消费者协调在一起消费订阅主题的所有分区,每个分区只能由同一个消费者组内的一个 Consumer 实例来消费,具体来说其重要的特性有三个:

  1. Consumer Group 下可以有一个或者多个 Consumer 实例,这里的实例是一个单独的进程,也可以是同一个进程下的线程,在实际场景中,使用进程更为常见。
  2. Group ID 是一个字符串,在一个 Kafka 集群中,它标识唯一的一个 Consumer Group
  3. Consumer Group 下所有实例订阅的的主题的单个分区,只能分配给该消费者组内 Consumer 实例消费,同时这个分区也可以被其他消费者组消费。

基于消费者组这些特性,非常容易便实现了对两种消息消费方式的支持,具体来说:

由于消费者组订阅了某个主题,消费者组的实例只消费组内的某个分区,因而在实现两种模型看的时候呢,当所有实例都在一个消费者组,那它就是一个消息队列模型。如下图所示:

image.png

当所有的实例都在不同的消费者组的时候,那就是发布/订阅模型

image.png

在了解了 Consumer Group 以及它的设计亮点之后,你可能会有这样的疑问:在实际使用场景中,我怎么知道一个 Group 下该有多少个 Consumer 实例呢?**理想情况下,Consumer 实例的数量应该等于该 Group 订阅主题的分区总数。**以下图为例:

image.png

图中分区共有三个,那么消费者组在设置成三个的情况下,可以恰好实现一个消费者实例消费一个分区这一最完美的情形,如果设置成两个消费者,则会出现一个消费者消费两个分区,一个消费者实例消费一个分区;如果设置成四个消费者实例,则会出现一个空闲的消费者实例不消费分区,因而在实际使用时不要设置成消费者实例数目大于订阅分区的情形,这样只能白白浪费资源。

❓❓ 一个消费者组在消费的过程中,也不可能是**“一帆风顺”**的,可能会发生各种各样的意外,比如某些消费者实例挂掉了,消费主题变更了等等这些意料之外的情况,遇到这种情况消费者组该怎么办呢?

这就说道了消费者组中的另一个重要概念 重平衡(Rebalance),Rebalance 本质上是一种协议**,规定了一个 Consumer Group 下的所有 Consumer 如何达成一致,来分配订阅 Topic 的每个分区**。比如某个 Group 下有 20 个 Consumer 实例,它订阅了一个具有 100 个分区的 Topic。正常情况下,Kafka 平均会为每个 Consumer 分配 5 个分区。这个分配的过程就叫 Rebalance。

消费组在消费消息的过程中,如果发生一些“意外”,就会触发重平衡,具体来说,重平衡的触发条件有三个:

  1. 组成员数发生变更,比如有新的 Consumer 加入或者离开
  2. 订阅主题数发生变更。Consumer Group 可以使用正则表达式的方式订阅主题,当匹配的主题数目变多时,也会触发重平衡问题
  3. 订阅主题的分区数发生变更。当前 kafka 只允许增加一个主题分区。

虽然说通过重平衡可以合理分配消费者组中的消费者和主题的关系,实现一种均衡,但它在重平衡的过程,,所有 Consumer 实例都会停止消费,等待 Rebalance 完成,相当于 JVM 中的 Stop the World,并且这一过程十分之慢。此外其效率不高,当前 Kafka 的设计机制决定了每次 Rebalance 时,Group 下的所有成员都要参与进来,而且通常不会考虑局部性原理,但局部性原理对提升系统性能是特别重要的。

因而在实际开发过程中,我们是要尽量避免重平衡情况的发生,如何避免呢?

结合前边重平衡触发的条件,其中前两种不可避免,最后一种可以通过一些措施来优化:

基本思想就是,规避不必要的 Reblance

  1. 因为心跳时间短,未来得及发送心跳实例心跳,导致被移除组
  2. poll.timeout.ms 过小,一些执行较长时间的消费者会被移除。

针对这两种原因,解决方法就是提高超时时间,这里给出参考值:

  • 设置 session.timeout.ms = 6s。
  • 设置 heartbeat.interval.ms = 2s。
  • 要保证 Consumer 实例在被判定为“dead”之前,能够发送至少 3 轮的心跳请求,即 session.timeout.ms >= 3 * heartbeat.interval.ms。

第二类非必要 Reblance**,需要根据具体业务场景来设置合理的超时时间**,比如如果消费者消费单条时间很长,那么在设置超时时间的时候要保证超时时间内,消费者把数据消费完。

❓❓ 为什么重平衡会发生这么多问题呢?这就要我们结合重平衡的流程来理解了。

重平衡问题

首先我们弄清楚一个问题,消费者组和 Broker 端是如何知道该重平衡的呢?

答案就是,靠消费者端的 心跳线程(Heartbeat Thread)。心跳线程,顾名思义,就是用来发送心跳来告知 Broker 端消费者自身的存活情况的,但在 Kafka 中重平衡机制也需要心跳线程来协助完成。
当协调者决定开启新一轮的重平衡后,它会将“REBALANCE_IN_PROGRESS ”封装到心跳请求的响应中,发给消费者实例。当消费者实例发现心跳响应中包含了“REBALANCE_IN_PROGRESS”,就能马上知道重平衡开始了,这就是重平衡的一个通知机制

当重平衡流程启动之后,需要消费者端和 Broker 端两端协调进行工作。下边我们分别展开来说

消费者端重平衡流程

针对消费者组来说,Kafka 当前设计了一套状态机,来辅助解决重平衡问题。Kafka 为消费者组定义了 5 种状态,它们分别是:EmptyDeadPreparingRebalanceCompletingRebalance Stable,其具体含义如下图所示:

image.png

各个状态的转移图如下所示:

image.png

消费者组一开始会处于 Empty 状态,当重平衡开始之后,它会被置为 PreparingRebalance 状态等待成员加入,成员加入后变更为 CompletingRebalance 状态等待 消费者Leader 对消费者组中各个消费者需要消费的分区进行划分,分配完成之后进入 Stable 完成重平衡。
当有新成员加入或者已有成员退出时,消费者组会从 Stable 直接跳到 PreparingRebalance状态,此时所有现存成员必须申请入组,当所有成员都退组之后,消费者组状态变更程 Empty,开始重平衡流程。

在讲完消费者组重平衡过程中状态的变化之后,接下我们把目光聚焦到消费者实例本身所发生的的一些事情。

Kafka 定期删除过期位移的条件就是,消费者组要处于"Empty"状态,此时如果消费者组如果停掉了很长时间(超过 7 天),那么 Kafka 很可能就把该组的位移数据删除掉。

在消费者端,重平衡分为两个步骤:分别是加入组和等待领导者消费者(Leader Consumer)分配方案。这两个步骤分别对应两类特定的请求:JoinGroup 请求和 SyncGroup 请求。

当组内成员加入组时,它会向协调者发送 JoinGroup 请求。在该请求中,每个成员都要将自己订阅的主题上报,这样协调者就能收集到所有成员的订阅信息。一旦收集了全部成员的 JoinGroup 请求后,协调者会从这些成员中选择一个担任这个消费者组的领导者。通常情况下,第一个发送 JoinGroup 请求的成员自动成为领导者。你一定要注意区分这里的领导者和之前我们介绍的领导者副本,它们不是一个概念。这里的领导者是具体的消费者实例,它既不是副本,也不是协调者。领导者消费者的任务是收集所有成员的订阅信息,然后根据这些信息,制定具体的分区消费分配方案。

选出领导者之后,协调者会把消费者组订阅信息封装到 JoinGroup 请求的响应体中,然后发给领导者,由领导者统一作出分配方案,进入下一步:发送 SyncGroup 请求。

在这一步中,领导者向协调者发送 SyncGroup 请求,将刚刚做出的分配方案发给协调者。值得注意的是,其他成员也会向协调者发送 SyncGroup 请求,只不过请求体中并没有实际的内容。这一步的主要目的是让协调者接收分配方案,然后统一以 SyncGroup 响应的方式分发给所有成员,这样组内所有成员就都知道自己该消费哪些分区了。

下面这张图描述的是 JoinGroup 请求的处理流程。

image.png

JoinGroup 请求的主要作用是将组成员订阅信息发送给领导者消费者,待领导者制定好分配方案后,重平衡流程进入到 SyncGroup 请求阶段。

下图描述的是 SyncGroup 请求的处理流程:

image.png

SyncGroup 请求的主要目的,就是让协调者把领导者制定的分配方案下发给各个组内成员。当所有成员都成功接收到分配方案后,消费者组进入到 Stable 状态,即开始正常的消费工作

Broker 端重平衡流程

Broker 端重平衡则需要分四个场景进行讨论(实际上领导者消费者是负责提出解决方案的,下面流程图为了便于理解并未区分领导着消费者和普通消费者):

场景一:新成员入组。

image.png

场景二:组成员主动离组。

何谓主动离组?就是指消费者实例所在线程或进程调用 close() 方法主动通知协调者它要退出。这个场景就涉及到了第三类请求:LeaveGroup 请求。协调者收到 LeaveGroup 请求后,依然会以心跳响应的方式通知其他成员,因此我就不再赘述了,还是直接用一张图来说明。

image.png

场景三:组成员崩溃离组崩溃离组是指消费者实例出现严重故障,突然宕机导致的离组

image.png

场景四:重平衡时协调者对组内成员提交位移的处理。

当重平衡开启时,协调者会给予成员一段缓冲时间,要求每个成员必须在这段时间内快速地上报自己的位移信息,然后再开启正常的 JoinGroup/SyncGroup 请求发送。

image.png

总结

本文主要以消息引擎的角度出发,介绍 Kafka 的设计原理,整篇文章分成四个大篇幅:

一:Kafka 消息格式以及演变过程,并且对消息的压缩也做了介绍

二:Kafka 实现消息传输的方式,包含了生产者和消费者如何建立连接,如果保障消息的传输的可靠性

三:消息的保存方法,即 Kafka 是如何通过分区和副本机制来保证 kafka 的高可用

四:消费者组以及重平衡问题即重平衡发生的过程,触发条件,以及可参考的解决方法

参考

  1. 《Kafka 消息规范》
  2. 《Kafka 消息格式的演进》
  3. 《一文看懂 Kafka 消息格式的演变》
  4. https://time.geekbang.org/column/article/99318
  • Kafka

    Kafka 是一种高吞吐量的分布式发布订阅消息系统,它可以处理消费者规模的网站中的所有动作流数据。 这种动作(网页浏览,搜索和其他用户的行动)是现代系统中许多功能的基础。 这些数据通常是由于吞吐量的要求而通过处理日志和日志聚合来解决。

    36 引用 • 35 回帖
  • Java

    Java 是一种可以撰写跨平台应用软件的面向对象的程序设计语言,是由 Sun Microsystems 公司于 1995 年 5 月推出的。Java 技术具有卓越的通用性、高效性、平台移植性和安全性。

    3187 引用 • 8213 回帖

相关帖子

欢迎来到这里!

我们正在构建一个小众社区,大家在这里相互信任,以平等 • 自由 • 奔放的价值观进行分享交流。最终,希望大家能够找到与自己志同道合的伙伴,共同成长。

注册 关于
请输入回帖内容 ...