08 2018 档案

摘要:Decommission In Progress --> Decommissioned,最后发现节点3上的数据慢慢的都迁移到了节点4上 当你下线一个datanode节点,有可能该节点长时间处于Decommission In Progress状态,一直不能转变为Decommissioned。请你用ha 阅读全文
posted @ 2018-08-22 21:29 桃源仙居 阅读(126) 评论(0) 推荐(0)
摘要:1.获取指定内容 # 文本 <Server ServerId='0001' xxxx /> <Server ServerId='0002' xxxx /> <Server ServerId='0003' xxxx /> <Server ServerId='0004' xxxx /> <Server 阅读全文
posted @ 2018-08-22 16:41 桃源仙居 阅读(242) 评论(0) 推荐(0)
摘要:0.系统版本信息 1.动态添加新的节点slave4到集群中 上面的准备工作做好之后,就可以在新节点slave4上执行相关的服务启动指令将新节点动态加入集群中去 http://192.168.74.131:50070/dfshealth.html#tab-datanode发现已经有了4个节点 阅读全文
posted @ 2018-08-20 11:17 桃源仙居 阅读(107) 评论(0) 推荐(0)
摘要:#!/usr/bin/env python # -*- coding:utf-8 -*- # 系统入口,监测chat日志文件变化 """Code By , 引入多进程处理""" from notify_base import NotifyBase from global_common import parse_mgame_log import os from mylog import log... 阅读全文
posted @ 2018-08-15 16:09 桃源仙居 阅读(158) 评论(0) 推荐(0)
摘要:0.系统版本信息 主机信息 1.前提条件 2.spark安装配置 镜像:http://mirrors.hust.edu.cn/apache/spark/spark-2.3.1/ 备注: 下面的配置主要是为了查看spark的job历史,submit任务时可以不需要对spark进行任何配置,只需要在提交 阅读全文
posted @ 2018-08-14 17:35 桃源仙居 阅读(145) 评论(0) 推荐(0)
摘要:# zookeeper-start.sh #zookeeper-stop.sh 备注:在使用hase时,执行hbase的start和stop指令,会自动执行zookeeper的相关start和stop指令,因此可以注释掉 #启动bigdata-start.sh #关闭bigdata-stop.sh 阅读全文
posted @ 2018-08-14 14:41 桃源仙居 阅读(135) 评论(0) 推荐(0)
摘要:管用的是 阅读全文
posted @ 2018-08-01 21:17 桃源仙居 阅读(142) 评论(0) 推荐(0)