Fork me on GitHub
上一页 1 ··· 5 6 7 8 9 10 11 12 13 ··· 29 下一页
摘要: 基于jdk1.8 下载zipkin jar包 用wget下载zipkin官方最新jar包 初始msyql 默认的database是“zikpin”,新建一个数据库,并使用如下脚本初始化: 启动zipkin,并使用mysql 暂且记录下安装配置,具体使用方式及原理有待进一步研究...... 阅读全文
posted @ 2018-04-18 16:24 迁梦余光 阅读(379) 评论(0) 推荐(0) 编辑
摘要: 下载安装包 我使用的是:hbase-0.99.2-bin.tar.gz 上传到指定目录:个人习惯,我放在了/home/hadoop/apps/ 解压 重命名 修改环境变量 在node1机器上执行下面命令 添加内容: 使其立即生效: 同样在其他机器上也执行上述操作。 修改配置文件 hbase-env. 阅读全文
posted @ 2018-04-09 22:45 迁梦余光 阅读(130) 评论(0) 推荐(0) 编辑
摘要: 在securecrt界面:工具 → 键映射编辑器,在弹出的键盘中: 1、点击“home”,会弹出一个窗口,在“发送字符串”中输入:\033[1~ 2、点击“end”,会弹出一个窗口,在“发送字符串”中输入:\033[4~ 3、点击“ins”,会弹出一个窗口,在“发送字符串”中输入:\033[2~ 4 阅读全文
posted @ 2018-04-06 17:15 迁梦余光 阅读(400) 评论(0) 推荐(0) 编辑
摘要: 还原场景: 数据库某个字段设置的长度是nvchar(10),可当时并不知晓啊......结果导致下单接口返回“将截断字符串或二进制数据”,查了半天(下单参数实在太多)最终追踪到某个字段长度不够导致..... 因为内部有异常捕获,所以调用方拿到了错误消息!但更诡异的是:竟然生成了订单数据,只不过字段不 阅读全文
posted @ 2018-04-05 19:01 迁梦余光 阅读(153) 评论(0) 推荐(0) 编辑
摘要: master docker run -p 3306:3306 --name mysql-master \ -v /mydata/mysql/master/log:/var/log/mysql \ -v /mydata/mysql/master/data:/var/lib/mysql \ -v /my 阅读全文
posted @ 2018-04-04 11:48 迁梦余光 阅读(238) 评论(0) 推荐(0) 编辑
摘要: 安装 https://docs.docker.com/install/linux/docker-ce/centos/ 配置镜像容器加速,登录阿里云控制台:https://cr.console.aliyun.com/cn-qingdao/instances/mirrors 配置完成之后,尝试下载镜像, 阅读全文
posted @ 2018-04-03 21:02 迁梦余光 阅读(162) 评论(0) 推荐(0) 编辑
摘要: 1、Hive不支持记录级别的更新、插入或删除? 2、sort by 和 order by 的区别? https://blog.csdn.net/jthink_/article/details/38903775 3、分区和分桶的区别? 分区:是hive中对数据比较粗粒度的划分,每个分区对应一个文件目录 阅读全文
posted @ 2018-03-21 08:59 迁梦余光 阅读(114) 评论(0) 推荐(0) 编辑
摘要: Hive是什么? 由Facebook开源用于解决海量 结构化日志的数据统计; Hive是基于Hadoop的一个 数据仓库工具,可以将结构化的数据文件映射 成一张表,并提供类SQL查询功能; 构建在Hadoop 之上的数据仓库; 1. 使用HQL作为查询接口; 2. 使用HDFS存储; 3. 使用Ma 阅读全文
posted @ 2018-03-17 19:00 迁梦余光 阅读(268) 评论(0) 推荐(0) 编辑
摘要: :1 跳转到第一行 :$ 跳转到最后一行 /字符串 查找字符串,按 “n” 继续查收 替换 :s/vivian/sky/ 替换当前行第一个 vivian 为 sky :s/vivian/sky/g 替换当前行所有 vivian 为 sky :n,$s/vivian/sky/ 替换第 n 行开始到最后 阅读全文
posted @ 2018-03-17 17:13 迁梦余光 阅读(116) 评论(0) 推荐(0) 编辑
摘要: 动态添加 DataNode 节点 hadoop环境是必须的 需要加入新的 DataNode 节点,前提是已经配置好 SSH 无密登录;直接复制已有DataNode中.ssh目录中的authorizedkeys和idrsa。 在新DataNode上启动hadoop hadoop-daemon.sh s 阅读全文
posted @ 2018-03-17 13:23 迁梦余光 阅读(330) 评论(0) 推荐(0) 编辑
上一页 1 ··· 5 6 7 8 9 10 11 12 13 ··· 29 下一页