基础知识点六

十四、RabbitMQ

135.rabbitmq 的使用场景有哪些?

1、单发送单接收;2、单发送多接收;3、发布、订阅模式(publish/subscribe);4、按路线发送接收(Routing),发送端按routing key发送信息,不同的接收端按不同routing key接收信息;5、按主题发送接收(Topics),发送端不只按固定的routing key发送信息,而是按字符串“匹配”发送,接收端同样如此。

136.rabbitmq 有哪些重要的角色?

1、超级管理员(administrator),可登陆管理控制台(启用management plugin的情况下),可查看所有信息,并且可以对用户、策略进行操作;2、监控者(monitoring),可登陆管理控制台(启用management plugin的情况下),同时可以查看rabbitmq节点相关信息(进程数,内存使用情况,磁盘使用情况等);3、策略制定者(policymaker),可登陆管理控制台(启用management plugin的情况下),同时可以对policy进行管理。但无法查看节点的相关信息;4、普通管理者(management),仅可登陆管理控制台(启用management plugin的情况下),无法看到节点信息,也无法对策略进行管理。5、其他,无法登陆管理控制台,通常就是普通的生产者和消费者

137.rabbitmq 有哪些重要的组件?

1.Server(broker): 接受客户端连接,实现AMQP消息队列和路由功能的进程。

2.Virtual Host:其实是一个虚拟概念,类似于权限控制组,一个Virtual Host里面可以有若干个Exchange和Queue,但是权限控制的最小粒度是Virtual Host

3.Exchange:接受生产者发送的消息,并根据Binding规则将消息路由给服务器中的队列。ExchangeType决定了Exchange路由消息的行为,例如,在RabbitMQ中,ExchangeType有direct、Fanout和Topic三种,不同类型的Exchange路由的行为是不一样的。

4.Message Queue:消息队列,用于存储还未被消费者消费的消息。

5.Message: 由Header和Body组成,Header是由生产者添加的各种属性的集合,包括Message是否被持久化、由哪个Message Queue接受、优先级是多少等。而Body是真正需要传输的APP数据。

6.Binding:Binding联系了Exchange与Message Queue。Exchange在与多个Message Queue发生Binding后会生成一张路由表,路由表中存储着Message Queue所需消息的限制条件即Binding Key。当Exchange收到Message时会解析其Header得到Routing Key,Exchange根据Routing Key与Exchange Type将Message路由到Message Queue。Binding Key由Consumer在Binding Exchange与Message Queue时指定,而Routing Key由Producer发送Message时指定,两者的匹配方式由Exchange Type决定。 

7.Connection:连接,对于RabbitMQ而言,其实就是一个位于客户端和Broker之间的TCP连接。

8.Channel:信道,仅仅创建了客户端到Broker之间的连接后,客户端还是不能发送消息的。需要为每一个Connection创建Channel,AMQP协议规定只有通过Channel才能执行AMQP的命令。一个Connection可以包含多个Channel。之所以需要Channel,是因为TCP连接的建立和释放都是十分昂贵的,如果一个客户端每一个线程都需要与Broker交互,如果每一个线程都建立一个TCP连接,暂且不考虑TCP连接是否浪费,就算操作系统也无法承受每秒建立如此多的TCP连接。RabbitMQ建议客户端线程之间不要共用Channel,至少要保证共用Channel的线程发送消息必须是串行的,但是建议尽量共用Connection。

9.Command:AMQP的命令,客户端通过Command完成与AMQP服务器的交互来实现自身的逻辑。例如在RabbitMQ中,客户端可以通过publish命令发送消息,txSelect开启一个事务,txCommit提交一个事务。
View Code

138.rabbitmq 中 vhost 的作用是什么?

virtual host 虚拟主机,一个broker里可以开设多个vhost,用做不同用户的权限分离

139.rabbitmq 的消息是怎么发送的?

(1)客户端连接到消息队列服务器,打开一个channel
(2)客户端声明一个exchange,并设置相关属性。
(3)客户端声明一个queue,并设置相关属性。
(4)客户端使用routing key,在exchange和queue之间建立好绑定关系。
(5)客户端投递消息到exchange。

140.rabbitmq 怎么保证消息的稳定性?

费者在消费完消息后发送一个回执给RabbitMQ,RabbitMQ收到消息回执(Message acknowledgment)后才将该消息从Queue中移除;如果RabbitMQ没有收到回执并检测到消费者的RabbitMQ连接断开,则RabbitMQ会将该消息发送给其他消费者(如果存在多个消费者)进行处理。这里不存在timeout概念,一个消费者处理消息时间再长也不会导致该消息被发送给其他消费者,除非它的RabbitMQ连接断开。

141.rabbitmq 怎么避免消息丢失?

将Queue与Message都设置为可持久化的(durable),这样可以保证绝大部分情况下我们的RabbitMQ消息不会丢失。但依然解决不了小概率丢失事件的发生(比如RabbitMQ服务器已经接收到生产者的消息,但还没来得及持久化该消息时RabbitMQ服务器就断电了),如果我们需要对这种小概率事件也要管理起来,那么我们要用到事务。

142.要保证消息持久化成功的条件有哪些?

queue,exchange和Message都持久化;

  引入RabbitMQ的mirrored-queue即镜像队列,这个相当于配置了副本,当master在此特殊时间内crash掉,可以自动切换到slave,这样有效的保障了HA,;

  要在producer引入事务机制或者Confirm机制来确保消息已经正确的发送至broker端

143.rabbitmq 持久化有什么缺点?

一、如果消息的自动确认为true,那么在消息被接收以后,RabbitMQ就会删除该消息,假如消费端此时宕机,那么消息就会丢失。因此需要将消息设置为手动确认。
二、设置手动确认会出现另一个问题,如果消息已被成功处理,但在消息确认过程中出现问题,那么在消费端重启后,消息会重新被消费。
三、发送端为了保证消息会成功投递,一般会设定重试。如果消息发送至RabbitMQ之后,在RabbitMQ回复已成功接收消息过程中出现异常,那么发送端会重新发送该消息,从而造成消息重复发送。
四、RabbitMQ的消息磁盘写入,如果出现问题,也会造成消息丢失。
View Code

144.rabbitmq 有几种广播类型?

fanout: 所有bind到此exchange的queue都可以接收消息(纯广播,绑定到RabbitMQ的接受者都能收到消息);
direct: 通过routingKey和exchange决定的那个唯一的queue可以接收消息;
topic:所有符合routingKey(此时可以是一个表达式)的routingKey所bind的queue可以接收消息;

145.rabbitmq 怎么实现延迟消息队列?

    第一步:给队列或者指定消息设置过期时间(TTL),过期后变成 死信

    第二部:设置死信的转发规则(如果没有任何规则,则直接丢弃死信) ,从新消费

146.rabbitmq 集群有什么用?

  1. 允许消费者和生产者在Rabbit节点崩溃的情况下继续运行;
  2. 通过增加节点来扩展Rabbit处理更多的消息,承载更多的业务量;

147.rabbitmq 节点的类型有哪些?

内存节点、磁盘节点。顾名思义内存节点就是将所有数据放在内存,磁盘节点就是将数据放在磁盘

148.rabbitmq 集群搭建需要注意哪些问题?

每个节点cookie的同步;主机之间必须可以相互识别并可达,/etc/hosts文件配置必须准确

149.rabbitmq 每个节点是其他节点的完整拷贝吗?为什么?

不是,队列的完整信息只放在一个节点,其他节点存放的是该队列的指针

150.rabbitmq 集群中唯一一个磁盘节点崩溃了会发生什么情况?

如果唯一的磁盘节点崩溃,集群是可以保持运行的,但不能更改任何东西。1、不能创建队列;2、不能创建交换器;3、不能创建绑定4、不能添加用户;5、不能更改权限;6、、不能添加和删除集群

151.rabbitmq 对集群节点停止顺序有要求吗?

启动顺序:磁盘节点===>内存节点

关闭顺序:内存节点===>磁盘节点

十五、Kafka

152.kafka 可以脱离 zookeeper 单独使用吗?为什么?

不能脱离zookeeper单独使用,因为kafka使用zookeeper管理和协调kafka的节点服务器

153.kafka 有几种数据保留的策略?

两种:1、按照过期时间保留;2、按照存储的消息大小保留

154.kafka 同时设置了 7 天和 10G 清除数据,到第五天的时候消息达到了 10G,这个时候 kafka 将如何处理?

执行数据清除工作,时间和大小无论哪个满足条件,都会清空数据

155.什么情况会导致 kafka 运行变慢?

1、cpu性能瓶颈;2、磁盘读写瓶颈;3、网络瓶颈

156.使用 kafka 集群需要注意什么?

1、集群的数量不是越多越好,最好不要超过7个,因为节点越多,消息复制需要时间就越长,整个群组的吞吐量就越低。2、集群数量最好是单数,因为超过一半故障集群就不能用了,设置为单数容错率更高

十六、Zookeeper

157.zookeeper 是什么?

是一个开源的分布式应用程序协调服务,是Google的Chubby一个开源实现,它是集群的管理者,监视着集群中各个节点的状态,根据节点提交的反馈进行下一步合理操作。最终,将简单易用的接口和性能高效、功能稳定的系统提供

158.zookeeper 都有哪些功能?

分布式应用配置管理、统一命名服务、状态同步服务、集群管理(是否有机器加入、退出、选主)、分布式锁(Redis锁、数据库锁)、服务注册与推送

159.zookeeper 有几种部署模式?

单机模式,集群模式,伪集群模式

160.zookeeper 怎么保证主从节点的状态同步?

Zookeeper的核心是原子广播机制,这个机制保证了各个server之间的同步。实现这个机制的协议叫做Zab协议。Zab协议有两种模式,它们分别是恢复模式和广播模式。
(1) 恢复模式
当服务启动或者在领导者崩溃后,Zab就进入了恢复模式,当领导者被选举出来,且大多数server完成了和leader的状态同步以后,恢复模式就结束了。状态同步保证了leader和server具有相同的系统状态。
(2) 广播模式
一旦Leader已经和多数的Follower进行了状态同步后,他就可以开始广播消息了,即进入广播状态。这时候当一个Server加入ZooKeeper服务中,它会在恢复模式下启动,发现Leader,并和Leader进行状态同步。待到同步结束,它也参与消息广播。ZooKeeper服务一直维持在Broadcast状态,直到Leader崩溃了或者Leader失去了大部分的Followers支持。
View Code

161.集群中为什么要有主节点?

主节点负责分发任务,从节点负责处理任务

162.集群中有 3 台服务器,其中一个节点宕机,这个时候 zookeeper 还可以使用吗?

可以继续使用,单数服务器只要没超过一半的服务器宕机就可以继续使用

163.说一下 zookeeper 的通知机制?

客户端会对某个znode建立一个watcher事件,当该znode发生变化时,这些客户端会收到zookeeper的通知,然后客户端可以根据znode变化来做出业务上的改变

posted @ 2019-04-28 15:09  亦真亦假,何必当真  阅读(239)  评论(0编辑  收藏  举报