kafka高吞吐量的原因_arp协议工作原理?arp攻击?如何解决_僵尸进程和孤儿进程_常见的进程调度算法_死锁产生的四个条件

kafka高吞吐量的原因

1、顺序读写
kafka的消息是不断追加到文件中的,这个特性使kafka可以充分利用磁盘的顺序读写性能

顺序读写不需要硬盘磁头的寻道时间,只需很少的扇区旋转时间,所以速度远快于随机读写

2、零拷贝
在Linux kernel2.2 之后出现了一种叫做"零拷贝(zero-copy)"系统调用机制,就是跳过“用户缓冲区”的拷贝,建立一个磁盘空间和内存的直接映射,数据不再复制到“用户态缓冲区”

 

 

 

 

3、分区

afka中的topic中的内容可以被分为多分partition存在,每个partition又分为多个段segment,所以每次操作都是针对一小部分做操作,很轻便,并且增加并行操作的能力

 

 

4、批量发送
kafka允许进行批量发送消息,producter发送消息的时候,可以将消息缓存在本地,等到了固定条件发送到kafka

等消息条数到固定条数
一段时间发送一次
5、数据压缩
Kafka还支持对消息集合进行压缩,Producer可以通过GZIP或Snappy格式对消息集合进行压缩
压缩的好处就是减少传输的数据量,减轻对网络传输的压力

批量发送和数据压缩一起使用,单条做数据压缩的话,效果不明显

arp协议工作原理?arp攻击?如何解决

ARPAddress Resolution Protocol,地址解析协议。⼯作在第三层(⽹络
层)。将⼀个已知的IP地址解析成MAC地址。
ARP攻击原理:通过发送伪造虚假的ARP报⽂(⼴播或单播),⽬标是把捏造的MAC塞到别
⼈的ARP缓存表。
解决措施:设置ARP防⽕墙、静态ARP绑定、硬件级ARP防御。【以上来⾃⽹络】

 

 

 

 

 

 

 

posted @ 2022-08-02 11:19  你的雷哥  阅读(61)  评论(0编辑  收藏  举报