2017年10月23日

Hikaricp源码解读(5)——物理连接生命周期介绍

摘要:5、物理连接生命周期介绍 HikariCP中的连接取用流程如下: 其中HikariPool负责对资源连接进行管理,而ConcurrentBag则是作为物理连接的共享资源站,PoolEntry则是对物理连接的1 1封装。 PoolEntry通过borrow方法从bag中取出,之后通过PoolEntry 阅读全文

posted @ 2017-10-23 17:27 taisenki 阅读 (1423) 评论 (0) 编辑

Hikaricp源码解读(4)——Proxy*代理类介绍

摘要:4、Proxy 代理类介绍 本文以v2.7.2源码为主进行分析 HikariCP不同于一般连接池如proxool、c3p0等使用动态代理实现连接的操作转移,而是通过Javassist结合部分自定义代码实现对应接口实现的方式,减少了代理连接建立的代价,以下是HikariCP中的主要代理相关类: Pro 阅读全文

posted @ 2017-10-23 14:53 taisenki 阅读 (522) 评论 (0) 编辑

2017年10月20日

Hikaricp源码解读(3)——ConcurrentBag介绍

摘要:3、ConcurrentBag介绍 本文以v2.7.2源码为主进行分析 HikariCP连接池是基于自主实现的ConcurrentBag完成的数据连接的多线程共享交互,是HikariCP连接管理快速的其中一个关键点。 ConcurrentBag是一个专门的并发包裹,在连接池(多线程数据交互)的实现上 阅读全文

posted @ 2017-10-20 15:17 taisenki 阅读 (655) 评论 (0) 编辑

Hikaricp源码解读(2)——配置介绍及对应源码

摘要:2、配置介绍及对应源码 HikariCP的配置类HikariConfig对Properties有很好的兼容,可通过配置环境变量 设置配置文件路径。 或 或者通过Properties进行创建: 本文介绍配置基于v2.7.2展开,后续源码分析也基于此版本 poolName : 连接池的名称,用于唯一标识 阅读全文

posted @ 2017-10-20 09:22 taisenki 阅读 (1501) 评论 (0) 编辑

Hikaricp源码解读(1)——简介

摘要:1、简介 HikariCP是一款高效稳定的数据库连接池,性能方面与其他同类产品相比能高出近10倍,尤其连接取用的设计极大的提高可靠性,对于数据库连接中断的情况,通过测试getConnection(),各种CP的不相同处理方法如下: (所有CP都配置了跟connectionTimeout类似的参数为5 阅读全文

posted @ 2017-10-20 09:17 taisenki 阅读 (1617) 评论 (0) 编辑

2017年1月22日

加密算法在linux下相同输入每次加密结果都不同的问题

摘要:现象描述:在 windows 操作系统下加解密正常,但部署到 linux 环境中相同的输入加密结果不正确,并且每次运行返回的结果都不同。 通过排查,发现问题出现在SecureRandom参数上面。 之前代码使用的是new SecureRandom(byte[]),由于SecureRandom调用内核 阅读全文

posted @ 2017-01-22 09:18 taisenki 阅读 (62) 评论 (0) 编辑

2016年12月27日

通过hive自定义函数直接回写数据到数据库

摘要:hive一般用来执行离线统计分析相关的功能,然后将执行的结果导入到数据库的表中供前端报表可视化展现来查询。 导回数据库的方式有许多,sqoop、hive jdbc、mr jdbc等等,但是这几种方式都会有一个二次处理环节(数据需要人工)。 这次介绍另外一种处理方式,直接将对数据库的操作集成在udf中 阅读全文

posted @ 2016-12-27 09:11 taisenki 阅读 (75) 评论 (0) 编辑

2016年9月26日

[原创]Axis2与ActiveMQ集成配置

摘要:本文详细介绍了axis2集成jms中间件ActiveMQ的全过程,参考部分网络资料进行整理。 1 ActiveMQ安装及配置 1.1 ActiveMQ简介 ActiveMQ 是Apache出品,最流行的,能力强劲的开源消息总线。完全支持JMS1.1和J2EE 1.4规范的 JMS Provider实 阅读全文

posted @ 2016-09-26 18:18 taisenki 阅读 (83) 评论 (0) 编辑

2016年6月2日

【转+修正】在Windows和Rstudio下本地安装SparkR

摘要:(根据最新情况进行修正) 毋庸置疑,Spark已经成为最火的大数据工具,本文详细介绍安装SparkR的方法,让你在5分钟之内能在本地使用。 ​环境要求:java 7+ 、R 及 Rstudio Rtools (下载地址:https://cran.r-project.org/bin/windows/R 阅读全文

posted @ 2016-06-02 09:12 taisenki 阅读 (1283) 评论 (0) 编辑

2015年12月31日

SPARK MASTER 高HA可用部署

摘要:关于HA高可用部署方式,Spark提供了两种方案:基于文件系统的单点恢复(Single-Node Recovery with Local File system) 主要用于开发或测试环境。为spark提供目录保存spark Application和worker的注册信息,并将他们的恢复状态写入该目... 阅读全文

posted @ 2015-12-31 14:19 taisenki 阅读 (678) 评论 (0) 编辑

导航

统计