Kafka入门

Kafka是一个分布式的基于发布/订阅模式的消息队列(Message Queue),主要应用于大数据实时处理领域。

消息队列模式

  1. 点对点模式(一对一,消费者主动拉取数据,消息收到后消息清除)。

消息生产者生产消息发送到Queue中,然后消息消费者从Queue中取出并且消费消息。 消息被消费以后,queue 中不再有存储,所以消息消费者不可能消费到已经被消费的消息。 Queue 支持存在多个消费者,但是对一个消息而言,只会有一个消费者可以消费。

QQ20200324-202328@2x

  1. 发布/订阅模式(一对多,消费者消费数据之后不会清除消息)。

消息生产者(发布)将消息发布到 topic 中,同时有多个消息消费者(订阅)消费该消息。和点对点方式不同,发布到 topic 的消息会被所有订阅者消费。

QQ20200324-203103@2x

Kafka属于第2种模式。

Kafka架构

QQ20200324-210522@2x

  1. Producer :消息生产者,就是向 kafka broker 发消息的客户端;
  2. Consumer :消息消费者,向 kafka broker 取消息的客户端;
  3. Consumer Group (CG):消费者组,由多个 consumer 组成。消费者组内每个消费者负责消费不同分区的数据,一个分区只能由消费者组中的一个消费者消费;消费者组之间互不影响。所有的消费者都属于某个消费者组,即消费者组是逻辑上的一个订阅者;
  4. Broker :一台 kafka 服务器就是一个 broker。一个集群由多个 broker 组成。一个 broker可以容纳多个topic;
  5. Topic :可以理解为一个队列,生产者和消费者面向的都是一个 topic;
  6. Partition:为了实现扩展性,一个非常大的 topic 可以分布到多个 broker(即服务器)上,一个 topic 可以分为多个 partition,每个 partition 是一个有序的队列;
  7. Replica:副本,为保证集群中的某个节点发生故障时,该节点上的 partition 数据不丢失,且 kafka 仍然能够继续工作,kafka提供了副本机制,一个 topic 的每个分区都有若干个副本,一个 leader 和若干个 follower。
  8. leader:每个分区多个副本的“主”,生产者发送数据的对象,以及消费者消费数据的对象都是 leader。
  9. follower:每个分区多个副本中的“从”,实时从 leader 中同步数据,保持和 leader 数据的同步。leader 发生故障时,某个 follower 会成为新的follower。

对于每一个topic, Kafka集群都会维持一个分区日志,如下所示:

QQ20200331-150027@2x

每个分区都是有序且顺序不可变的记录集,并且不断地追加到结构化的commit log文件。分区中的每一个记录都会分配一个id号来表示顺序,我们称之为offset,offset用来唯一的标识分区中每一条记录。

Kafka每个分区的数据是严格有序的,但多分区之间不能确保有序。

安装与启动

演示在unix环境下安装与启动Kafka。Kafka下载地址:http://kafka.apache.org/downloads,选择二进制文件下载(Binary downloads),然后解压即可。

Kafka的配置文件位于config目录下,因为Kafka集成了Zookeeper,所以config目录下除了有Kafka的配置文件server.properties外,还可以看到一个Zookeeper配置文件zookeeper.properties。

在启动Kafka和Zookeeper之前,我们先在Kafka解压目录下创建如下两个日志目录:

1
mkdir /Users/mrbird/software/kafka_2.4.1/logs/kafka-logs mkdir /Users/mrbird/software/kafka_2.4.1/logs/zk-logs

分别用于存放Kafka和Zookeeper日志。

修改config/zookeeper.properties:

QQ20200324-213631@2x

修改config/server.properties

QQ20200324-213803@2x QQ20200324-213840@2x

server.properties更多可用配置及含义如下:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
#broker 的全局唯一编号,不能重复
broker.id=0
#删除 topic 功能使能
delete.topic.enable=true
#处理网络请求的线程数量
num.network.threads=3
#用来处理磁盘 IO 的现成数量
num.io.threads=8
#发送套接字的缓冲区大小
socket.send.buffer.bytes=102400
#接收套接字的缓冲区大小
socket.receive.buffer.bytes=102400
#请求套接字的缓冲区大小
socket.request.max.bytes=104857600
#topic 在当前 broker 上的分区个数
num.partitions=1
#用来恢复和清理 data 下数据的线程数量
num.recovery.threads.per.data.dir=1
#segment 文件保留的最长时间,超时将被删除
log.retention.hours=168

修改好后,我们便可以启动Kafka了。

1.启动Zookeeper

1
sh bin/zookeeper-server-start.sh config/zookeeper.properties

如果要在后台启动Zookeeper,则可以使用:

1
sh bin/zookeeper-server-start.sh -daemon config/zookeeper.properties

2.启动Kafka

1
sh bin/kafka-server-start.sh config/server.properties

3.创建topic

1
sh bin/kafka-topics.sh --zookeeper localhost:2181 --create --replication-factor 1 --partitions 1 --topic test

  • –create 创建
  • –topic 指定 topic 名
  • –replication-factor 定义副本数
  • –partitions 定义分区数

上面创建了一个名称为test的topic,副本数和分区数都是1。

4.启动生产者

1
sh bin/kafka-console-producer.sh --broker-list localhost:9092 --topic test

9092为生产者的默认端口号,指定topic为刚刚创建的test。

5.启动消费者

1
sh bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic test --from-beginning

–from-beginning:会把主题中以往所有的数据都读取出来。

启动好生产者和消费者后我们在生产者里生产几条数据:

QQ20200324-220247@2x

消费者成功接收到数据:

QQ20200324-220314@2x

常用命令

查看当前服务器中的所有 topic:

1
sh bin/kafka-topics.sh --zookeeper localhsot:2181 --list

删除 topic:

1
sh bin/kafka-topics.sh --zookeeper localhost:2181 --delete --topic test

需要 server.properties 中设置delete.topic.enable=true否则只是标记删除。

查看某个 Topic 的详情:

1
sh bin/kafka-topics.sh --zookeeper localhost:2181 --describe --topic test

修改分区数:

1
sh bin/kafka-topics.sh --zookeeper localhost:2181 --alter --topic test --partitions 2

ZK的作用

Kafka 集群中有一个 broker 会被选举为 Controller,负责管理集群 broker 的上下线,所有 topic 的分区副本分配和 leader 选举等工作。Controller 的管理工作都是依赖于 Zookeeper 的。

「尚硅谷大数据技术之 Kafka」 学习笔记

请作者喝瓶肥宅水🥤

0