kafka是目前企业中很常用的消息队列产品,可以用于削峰、解耦、异步通信。特别是在大数据领域中应用尤为广泛,主要得益于它的高吞吐量、低延迟,在我们公司的解决方案中也有用到。既然kafka在企业中如此重要,那么本文就通过几张图带大家全面认识一下kafka,现在我们不妨带入kafka设计者的角度去思考该如何设计,它的架构是怎么样的、都有哪些组件组成、如何进行扩展等等。
现在假如有100T大小的消息要发送到kafka中,数据量非常大,一台机器存储不下,面对这种情况,你该如何设计呢?
很简单,分而治之,一台不够,那就多台,这就形成了一个kafka集群。如下图所示,一个broker就是一个kafka节点,100T数据就有3个节点分担,每个节点约33T,这样就能解决问题了,还能提高吞吐量。
topicA
。topic
可以分布到多个 broker
(即服务器)上,一个 topic
可以分为多个 partition
,每个 partition
是一个有序的队列。比如上图中的topicA被分成了3个partition
。broker
中,万一这个broker
宕机了怎么办?为了实现高可用,一个 topic
的每个分区都有若干个副本,一个 Leader
和若干个Follower
。比如上图中的虚线连接的就是它的副本。Leader
。Leader
中同步数据,保持和Leader
数据的同步。Leader
发生故障时,某个 Follower
会成为新的 Leader
。Kafka broker
发消息的客户端,后面详细讲解。Kafka broker
取消息的客户端,多个Consumer
会组成一个消费者组,后面详细讲解。Kafka
2.8.0版本以后也支持非zk的方式,大大减少了和zk的交互。前面通过一张图片讲解了kafka整体的架构,那现在我们来看看kafka生产者发送的整个过程,这里面也是大有文章。
在消息发送的过程中,涉及到了两个线程——main
线程和 Sender
线程。在 main
线程中创建了一个双端队列 RecordAccumulator
。main
线程将消息发送给 RecordAccumulator
,Sender
线程不断从 RecordAccumulator
中拉取消息发送到 Kafka Broker
。
kafkaProducer
创建消息,然后通过可能的拦截器、序列化器和分区器的作用之后缓存到消息累加器(RecordAccumulator
, 也称为消息收集器)中。Sender
线程负责从 RecordAccumulator
获取消息并将其发送到 Kafka
中。RecordAccumulator
主要用来缓存消息以便 Sender
线程可以批量发送,进而减少网络传输的资源消耗以提升性能。RecordAccumulator
缓存的大小可以通过生产者客户端参数 buffer.memory
配置,默认值为 33554432B
,即 32M
。RecordAccumulator
的某个双端队列( Deque
)中,RecordAccumulator
内部为每个分区都维护了一个双端队列,即 Deque<ProducerBatch>
, 消息写入缓存时,追加到双端队列的尾部。Sender
读取消息时,从双端队列的头部读取。ProducerBatch
是指一个消息批次;与此同时,会将较小的 ProducerBatch
凑成一个较大 ProducerBatch
,也可以减少网络请求的次数以提升整体的吞吐量。ProducerBatch
大小可以通过batch.size
控制,默认16kb
。Sender
线程会在有数据积累到batch.size
,默认16kb,或者如果数据迟迟未达到batch.size
,Sender
线程等待linger.ms
设置的时间到了之后就会获取数据。linger.ms
单位ms
,默认值是0ms
,表示没有延迟。Sender
从 RecordAccumulator
获取缓存的消息之后,会将数据封装成网络请求<Node,Request>
的形式,这样就可以将 Request
请求发往各个 Node
了。sender
线程发往 Kafka
之前还会保存到 InFlightRequests
中,它的主要作用是缓存了已经发出去但还没有收到服务端响应的请求。InFlightRequests
默认每个分区下最多缓存5个请求,可以通过配置参数为max.in.flight.request.per. connection
修改。Request
通过通道Selector
发送到kafka
节点。acks
.Leader
收到数据后应答。Request
请求接受到kafka的响应结果,如果成功的话,从InFlightRequests
清除请求,否则的话需要进行重发操作,可以通过配置项retries
决定,当消息发送出现错误的时候,系统会重发消息。retries
表示重试次数。默认是 int 最大值,2147483647
。RecordAccumulator
中的数据。原来kafka生产者发送经过了这么多流程,我们现在来看看kafka消费者又是如何进行的呢?
Kafka 中的消费是基于拉取模式的。消息的消费一般有两种模式:推送模式和拉取模式。推模式是服务端主动将消息推送给消费者,而拉模式是消费者主动向服务端发起请求来拉取消息。
kafka是以消费者组进行消费的,一个消费者组,由多个consumer组成。形成一个消费者组的条件,是所有消费者的groupid相同。
那么问题来了,kafka是如何指定消费者组的每个消费者消费哪个分区?每次消费的数量是多少呢?
一、如何制定消费方案
coordinator
发送JoinGroup
的请求。coordinator
主要是用来辅助实现消费者组的初始化和分区的分配。coordinator
老大节点选择 = groupid
的hashcode
值 % 50( __consumer_offsets
内置主题位移的分区数量)例如: groupid
的hashcode值 为1,1% 50 = 1
,那么__consumer_offsets
主题的1号分区,在哪个broker
上,就选择这个节点的coordinator
作为这个消费者组的老大。消费者组下的所有的消费者提交offset
的时候就往这个分区去提交offset
。consumer
作为消费中的leader
,比如上图中的ConsumerB
。leader
制定出消费方案,比如谁来消费哪个分区等coordinator
coordinator
就把消费方 案下发给各个consumer
, 图中只画了一条线,实际上是有下发各个consumer
。注意,每个消费者都会和coordinator
保持心跳(默认3s),一旦超时(session.timeout.ms=45s
),该消费者会被移除,并触发再平衡;或者消费者处理消息的时间过长(max.poll.interval.ms
=5分钟),也会触发再平衡,也就是重新进行上面的流程。
二、消费者消费细节
现在已经初始化消费者组信息,知道哪个消费者消费哪个分区,接着我们来看看消费者细节。
ConsumerNetworkClient
, 发送消费请求,可以进行如下配置:fetch.min.bytes
: 每批次最小抓取大小,默认1字节fetch.max.bytes
: 每批次最大抓取大小,默认50Mfetch.max.wait.ms
:最大超时时间,默认500mscompletedFetches
队列中max.poll.records
一次拉取数据返回消息的最大条数,默认500条。我们都知道消息发送到kafka,最终是存储到磁盘中的,我们看下kafka是如何存储的。
一个topic
分为多个partition
,每个partition对应于一个log
文件,为防止log文件过大导致数据定位效率低下,Kafka采取了分片和索引机制,每个partition
分为多个segment
。每个segment
包括:“.index
”文件、“.log
”文件和.timeindex
等文件,Producer
生产的数据会被不断追加到该log文件末端。
上图中t1即为一个topic
的名称,而“t1-0/t1-1”则表明这个目录是t1这个topic
的哪个partition
。
kafka中的索引文件以稀疏索引(sparseindex
)的方式构造消息的索引,如下图所示:
1.根据目标offset
定位segment
文件
2.找到小于等于目标offset
的最大offset
对应的索引项
3.定位到log
文件
4.向下遍历找到目标Record
注意:index为稀疏索引,大约每往log
文件写入4kb
数据,会往index
文件写入一条索引。通过参数log.index.interval.bytes
控制,默认4kb
。
那kafka中磁盘文件保存多久呢?
kafka 中默认的日志保存时间为 7 天,可以通过调整如下参数修改保存时间。
log.retention.hours
,最低优先级小时,默认 7 天。log.retention.minutes
,分钟。log.retention.ms
,最高优先级毫秒。log.retention.check.interval.ms
,负责设置检查周期,默认 5 分钟。其实kafka中的细节十分多,本文也只是对kafka的一些核心机制从理论层面做了一个总结,更多的细节还是需要自行去实践,去学习。
欢迎关注个人公众号【JAVA旭阳】交流学习