kafka 使用入门-1

1. kafka命令

topic

查看kafka中的topic

	kafka-topics.sh --list --zookeeper zkip:2181

创建topic

	kafka-topics.sh --create --zookeeper 173.20.0.2:2181 --topic first --partitions 2 --replication-factor 3

producer/consumer

	kafka-console-consumer.sh --topic first --bootstrap-server 173.20.0.3:9092 控制台消费

	kafka-console-producer.sh --topic first --broker-list 173.20.0.3:9092 控制台生产

2. 生产者

1. 分区策略

	在未指定partition的时候,是根据key的hash值模与当前的分区数 
	在没有指定key的情况下,轮询的方式分发

2.ISR

	kafka为了保证数据的可靠性,采用的follower全部同步数据的方式
	问题是当一个follower宕机之后,岂不是无法返回ack?
	replica.lag.time.max.ms 同步leader阈值,在这个时间内同步成功的会加入到isr中,当isr队列中的副本同步完就会返回ack,当leader发生故障就会在isr中选举
	
	这里面临这性能问题,所以kafka提供了三种ack配置
	0:producer不等待broker的ack
	1:producer只等待leader写完
	-1(all):producer等待leader和follower全部落盘返回ack 
	极端情况下isr中没有达标的follower就会退化成1那种情况
	在同步完follower之后未回复ack之前leader宕机,会出现数据重复的现象

3. 数据一致性问题

	LEO(Log End Offset)
	HW(High watermark)
	消费者只能看到hw之前的数据,当leader宕机之后follower成为leader之后会删除其他副本hw到leo的数据,并让其他副本同步leader的数据

4. 幂等性

	producer中的enable.idompotence设置为true
	只能保证当次会话 当前分区的幂等性

3. 消费者

1. 消费方式

	consumer采用pull模式从broker拉取数据 当无数据的时候会等待timeout时间再去pull

2. 分区分配策略

	1. 轮询
	把消费者组中订阅的所有topic当成一个整体,来轮询分配给消费者组中的consumer
	前提条件,要保证当前消费者组中订阅的同一个或一组topic
	2. 范围

3. offset的维护

	通过消费者组+topic+partition唯一确定一个offset

4. 事务

	客户端给一个transactionid,kafka将transactionid+pid存储在broker, 当producer宕机之后,重启之后拿着transactionid去broker获取旧当pid保证跨分区跨会话级别的exactly once
posted @ 2021-12-31 11:28  rudynan  阅读(43)  评论(0编辑  收藏  举报