上一页 1 2 3 4 5 6 7 8 9 ··· 21 下一页
摘要: 在使用flume采集日志写入到hdfs时,用到了lzo压缩算法,这个算法将让保存的文件缩小为原文件的三分之一。由于此压缩算法不是hadoop默认的,需要另外安装,下面记录下,全文主要参考文末博文完成。 编译安装lzo和lzop 注意,有多少个节点,就安装多个少!注意,有多少个节点,就安装多个少!注意 阅读全文
posted @ 2020-01-20 13:58 斐波那切 阅读(1408) 评论(0) 推荐(0) 编辑
摘要: 接下来添加部分HBase优化相关的选择,先添加部分,后续实际工作中再补充完善。优化主要针对外界条件以及自身条件。 外界条件 外界条件包括硬件配置、GC、JVM等。 配置内存 HBase是吃内存的,很多地方都有涉及到,如blockcache读缓存,memStore写缓存,LSM树状结构和日志记录机制等 阅读全文
posted @ 2020-01-16 20:28 斐波那切 阅读(282) 评论(0) 推荐(0) 编辑
摘要: 接下来记录一下HBase存储原理相关的知识,理解尚浅,后续再补充。 索引 hbase中没有索引,但是mysql有,区别在于mysql是行级存储,hbase是列级存储,索引对行级存储有意义,对于列级存储意义不大。 如下图所示,不管是mysql还是hbase,最终数据都会落地成文件,当给行级存储建立索引 阅读全文
posted @ 2020-01-15 23:53 斐波那切 阅读(394) 评论(0) 推荐(0) 编辑
摘要: 下面记录一下Hbase的简单命令,以及相关的API操作,Hbase虽然也是一种数据库,但是基本命令和MySQL不一样。 基本概念 Hbase因为是列存储,因此出现了一些新的概念,分别是行键RowKey、列族Column Family、列Column、单元Cell和命名空间NameSpace。大部分概 阅读全文
posted @ 2020-01-11 15:19 斐波那切 阅读(1108) 评论(0) 推荐(0) 编辑
摘要: 使用kafka和sparkstreaming整合时,IDEA运行程序报错"com.fasterxml.jackson.databind.JsonMappingException: Incompatible Jackson version: 2.9.1",初步看是版本不兼容,但是版本后面确认没有问题, 阅读全文
posted @ 2020-01-05 08:18 斐波那切 阅读(4403) 评论(0) 推荐(0) 编辑
摘要: HBase是大数据中的数据库,是一种列级存储的数据库,支持秒级查询,官网称能存储10亿行*100万列的数据,下面安装记录一下,基于centos6,后面查看用。 安装hadoop hbase存储的数据在hadoop中,因此需要先安装hadoop,可以安装伪分布式就可以,用作学习用,参考 https:/ 阅读全文
posted @ 2020-01-01 22:44 斐波那切 阅读(272) 评论(0) 推荐(0) 编辑
摘要: Kafka是一个比RabbitMQ更加强大的消息中间件,处理消息的能力为80-100M/s,下面安装记录一下,Linux版本为Centos6。 解压压缩包 直接解压即可。 [root@hadoop01 /home/software]# tar -zxvf kafka_2.11-1.0.0.tgz 修 阅读全文
posted @ 2019-12-30 21:28 斐波那切 阅读(1075) 评论(0) 推荐(0) 编辑
摘要: 下面记录下hadoop完全分布式安装的过程,其中hadoop使用的版本是apache下的,不是cdh,linux版本为centos6。 完全分布式示意图 下面在三台节点上安装hadoop完全分布式,其中一个服务器节点上将有多个hadoop相关的节点,最后是压缩到三台的安装效果,正常来说至少13个服务 阅读全文
posted @ 2019-12-29 01:49 斐波那切 阅读(870) 评论(0) 推荐(0) 编辑
摘要: zookeeper将管理一批''动物'',如小象hadoop,小鲸鱼hbase等,先记录下安装完全分布式zookeeper,以备后用。 解压zookeeper压缩包 [root@hadoop01 /home/software]# tar -zxvf zookeeper-3.4.8.tar.gz 修改 阅读全文
posted @ 2019-12-28 21:22 斐波那切 阅读(876) 评论(0) 推荐(0) 编辑
摘要: 安装好redis集群后,接下来记录一下它的实现中非常重要的槽道原理,在记录原理之前先对槽道进行迁移操作,直观的感受一下。 槽道迁移 实现槽道迁移也有两种方式,一种是使用ruby的redis-trib.rb脚本,一种是使用原生的redis-cluster集群命令来完成。如果使用ruby提供的脚本,需要 阅读全文
posted @ 2019-12-14 23:33 斐波那切 阅读(3132) 评论(0) 推荐(2) 编辑
上一页 1 2 3 4 5 6 7 8 9 ··· 21 下一页