kafka实战与原理

一、Kafka的使用场景

1.日志收集:一个公司可以用Kafka收集各种服务的log,通过kafka以统一接口服务的方式开放给各种consumer,例如hadoop、Hbase、Solr等。

2.消息系统:解耦和生产者和消费者、缓存消息等。
3.用户活动跟踪:Kafka经常被用来记录web用户或者app用户的各种活动,如浏览网页、搜索、点击等活动,这些活动信息被各个服务器发布到kafka的topic中,然后订阅者通过订阅这些topic来做实时的监控分析,或者装载到hadoop、数据仓库中做离线分析和挖掘。
4.运营指标:Kafka也经常用来记录运营监控数据。包括收集各种分布式应用的数据,生产各种操作的集中反馈,比如报警和报告。
二、Kafka基本概念
  kafka是一个分布式的,分区的消息(官方称之为commit log)服务。它提供一个消息系统应该具备的功能,但是确有着独特的设计。Kafka借鉴了JMS规范的思想,但是确并没有完全遵循JMS规范。
  基础的消息(Message)相关术语:
名称 解释
Broker
消息中间件处理节点,一个Kafka节点就是一个broker,一
个或者多个Broker可以组成一个Kafka集群
Topic
Kafka根据topic对消息进行归类,发布到Kafka集群的每条
消息都需要指定一个topic 
Producer
消息生产者,向Broker发送消息的客户端
Consumer
消息消费者,从Broker读取消息的客户端 
ConsumerGroup 
每个Consumer属于一个特定的Consumer Group,一条消
息可以被多个不同的Consumer Group消费,但是一个
Consumer Group中只能有一个Consumer能够消费该消息
Partition   
物理上的概念,一个topic可以分为多个partition,每个
partition内部消息是有序的 
      服务端(brokers)和客户端(producer、consumer)之间通信通过TCP协议来完成。
三、kafka的server.properties核心配置
Property 
Default 
Description 
broker.id 
0
每个broker都可以用一个唯一的非负整数id进行标识;这个id可以作为
broker的“名字”,你可以选择任意你喜欢的数字作为id,只要id是唯
一的即可。
log.dirs 
/tmp/kafka-logs 
kafka存放数据的路径。这个路径并不是唯一的,可以是多个,路径之间
只需要使用逗号分隔即可;每当创建新partition时,都会选择在包含最
少partitions的路径下进行。 
listeners 
PLAINTEXT://192.168.65.60:909
server接受客户端连接的端口,ip配置kafka本机ip即可
zookeeper.connect 
localhost:2181 
zooKeeper连接字符串的格式为:hostname:port,此处hostname和
port分别是ZooKeeper集群中某个节点的host和port;zookeeper如果
是集群,连接方式为 hostname1:port1, hostname2:port2,
hostname3:port3 
log.retention.hours 
168
每个日志文件删除之前保存的时间。默认数据保存时间对所有topic都一
样。
num.partitions 
1
创建topic的默认分区数  
default.replication.factor
1
自动创建topic的默认副本数量,建议设置为大于等于2 
min.insync.replicas 
1
当producer设置acks为-1时,min.insync.replicas指定replicas的最小
数目(必须确认每一个repica的写数据都是成功的),如果这个数目没
有达到,producer发送消息会产生异常 
delete.topic.enable 
false
是否允许删除主题 
四、主题Topic和消息日志Log 
  1.可以理解Topic是一个类别的名称,同类消息发送到同一个Topic下面。对于每一个Topic,下面可以有多个分区(Partition)日志文件: 
    Partition是一个有序的message序列,这些message按顺序添加到一个叫做commit log的文件中。每个partition中的消息都有一个唯一的编号,称之为offset,用来唯一标示某个分区中message。每个partition,都对应一个commit log文件。一个partition中的message的offset都是唯一的,但是不同的partition中的message的offset可能是相同的。kafka一般不会删除消息,不管这些消息有没有被消费。只会根据配置的日志保留时间(log.retention.hours)确认消息多久被删除,默认保留最近一周的日志消息。kafka的性能与保留的消息数据量大小没有关系,因此保存大量的数据消息日志信息不会有什么影响。每个consumer是基于自己在commit log中的消费进度(offset)来进行工作的。在kafka中,消费offset由consumer自己来维护;一般情况下我们按照顺序逐条消费commit log中的消息,当然我可以通过指定offset来重复消费某些消息,或者跳过某些消息。这意味kafka中的consumer对集群的影响是非常小的,添加一个或者减少一个consumer,对于集群或者其他consumer来说,都是没有影响的,因为每个consumer维护各自的消费offset。
  2.可以这么来理解Topic,Partition和Broker
    一个topic,代表逻辑上的一个业务数据集,比如按数据库里不同表的数据操作消息区分放入不同topic,订单相关操作消息放入订单topic,用户相关操作消息放入用户topic,对于大型网站来说,后端数据都是海量的,订单消息很可能是非常巨量的,比如有几百个G甚至达到TB级别,如果把这么多数据都放在一台机器上可定会有容量限制问题,那么就可以在topic内部划分多个partition来分片存储数据,不同的partition可以位于不同的机器上,每台机器上都运行一个Kafka的进程Broker。
  3.为什么要对Topic下数据进行分区存储?
    1)commit log文件会受到所在机器的文件系统大小的限制,分区之后可以将不同的分区放在不同的机器上,相当于对数据做了分布式存储,理论上一个topic可以处理任意数量的数据。
    2)为了提高并行度。
五、kafka集群消费
  log的partitions分布在kafka集群中不同的broker上,每个broker可以请求备份其他broker上partition上的数据。kafka集群支持配置一个partition备份的数量。针对每个partition,都有一个broker起“leader”的作用,0个或多个其他的broker作为“follwers”的作用。leader处理所有的针对这个partition的读写请求,而followers被动复制leader的结果,不提供读写(主要是为了保证多副本数据与消费的一致性)。如果这个leader失效了,其中的一个follower将会自动的变成新的leader。
  Producers:生产者将消息发送到topic中去,同时负责选择将message发送到topic的哪一个partition中。通过round­robin做简单的负载均衡。也可以根据消息中的某一个关键字来进行区分。通常第二种方式使用的更多。
  Consumers:
    传统的消息传递模式有2种:队列( queue) 和(publish-subscribe)
        queue模式:多个consumer从服务器中读取数据,消息只会到达一个consumer。
        publish-subscribe模式:消息会被广播给所有的consumer。
    Kafka基于这2种模式提供了一种consumer的抽象概念:consumer group。
        queue模式:所有的consumer都位于同一个consumer group 下。
        publish-subscribe模式:所有的consumer都有着自己唯一的consumer group。
  消费顺序:
    一个partition同一个时刻在一个consumer group中只能有一个consumer instance在消费,从而保证消费顺序。consumer group中的consumer instance的数量不能比一个Topic中的partition的数量多,否则,多出来的consumer消费不到消息。Kafka只在partition的范围内保证消息消费的局部顺序性,不能在同一个topic中的多个partition中保证总的消费顺序性。如果有在总体上保证消费顺序的需求,那么我们可以通过将topic的partition数量设置为1,将consumer group中的consumer instance数量也设置为1,但是这样会影响性能,所以kafka的顺序消费很少用。
 
posted @ 2024-03-31 01:03  京木木  阅读(21)  评论(0)    收藏  举报