上一页 1 ··· 10 11 12 13 14 15 16 17 18 ··· 33 下一页
import org.apache.zookeeper.*; import org.apache.zookeeper.data.Stat; import java.io.IOException; import java.util.List; import java.util.concurrent.CountDownLatch; /** * Created by zzq on 2019/6/... Read More
posted @ 2019-06-25 16:25 soft.push("zzq") Views(2032) Comments(0) Diggs(0)
1 我的数据存入redis了但是怎么不见了? redis的内存使用是有限的,一直向redis中写入数据(如果配置了allkeyLRU)就会触发内存淘汰机制,将最近没有访问过的的key,value删除掉。 2 数据设置了过期时间,到时间以后内存仍然看不到明显被释放呢? redis如果key设置了过期时 Read More
posted @ 2019-06-24 12:11 soft.push("zzq") Views(223) Comments(0) Diggs(0)
继承ActualDataModelOperationHandler类并使用updateData方法更新数据,使用readData方法获取数据。 更新操作容器 测试例子 Read More
posted @ 2019-06-19 22:00 soft.push("zzq") Views(204) Comments(0) Diggs(0)
1 为什么用消息队列 1)解耦。服务之间没有强依赖,不需要关心调用服务时出现的各种异常,服务挂掉后接口超时等问题 2)异步。解决接口调用多服务时延时高的问题 3)高峰期服务间缓冲。解决工作节奏不一致问题,防止服务被打死 2 消息丢失了怎么办 消息丢失有3种情况: 1)consumer消费时如果在拉取 Read More
posted @ 2019-06-19 17:25 soft.push("zzq") Views(263) Comments(0) Diggs(0)
服务端 客户端 Read More
posted @ 2019-06-18 22:35 soft.push("zzq") Views(232) Comments(0) Diggs(0)
1:kafka可以通过多个broker形成集群,来存储大量数据;而且便于横向扩展。 2:kafka信息存储核心的broker,通过partition的segment只关心信息的存储,而生产者只负责向leader角色的partition提交数据,而消费者pull数据的时候自己通过zk存储offset信 Read More
posted @ 2019-06-14 22:17 soft.push("zzq") Views(1235) Comments(0) Diggs(0)
DataOperationManager 如果需要手工初始化数据源可以使用如下做法: Read More
posted @ 2019-06-13 22:13 soft.push("zzq") Views(318) Comments(0) Diggs(0)
kafka分区,默认行为: 如果key为null,则按照一种轮询的方式来计算分区分配 如果key不为null则使用称之为murmur的Hash算法(非加密型Hash函数,具备高运算性能及低碰撞率)来计算分区分配。 import org.apache.kafka.clients.consumer.Co Read More
posted @ 2019-06-13 22:10 soft.push("zzq") Views(303) Comments(0) Diggs(0)
https://www.cnblogs.com/wade-luffy/p/6406394.html Read More
posted @ 2019-06-13 16:32 soft.push("zzq") Views(129) Comments(0) Diggs(0)
posted @ 2019-06-12 21:58 soft.push("zzq") Views(161) Comments(0) Diggs(0)
上一页 1 ··· 10 11 12 13 14 15 16 17 18 ··· 33 下一页