2017年4月5日
摘要: 报错信息: ERROR org.apache.hadoop.hbase.regionserver.HRegionServer: Received CLOSE for a region which is not online, and we're not opening. 2016-12-07 16: 阅读全文
posted @ 2017-04-05 20:42 流浪在伯纳乌 阅读(3816) 评论(0) 推荐(0)
摘要: 在进行表检查时报错: org.apache.hadoop.hbase.TableNotFoundException: ods_matchinfo 改表丢失了 将报错的表删除,执行hbase hbck -fixMeta hbase hbck –fixAssignments 直到都没有报错。 解决命令如 阅读全文
posted @ 2017-04-05 20:36 流浪在伯纳乌 阅读(409) 评论(0) 推荐(0)
摘要: 问题描述:HBase建表时 ERROR: Table already exists: ods_yz_trader_transactionsd_1! 删除此表时报:table not exists 解决办法: 1 查看hdfs 相应的目录下是否有该表 hdfs dfs -ls /hbases/data 阅读全文
posted @ 2017-04-05 20:32 流浪在伯纳乌 阅读(1011) 评论(0) 推荐(0)
摘要: 报错: 两个Namenode 都处于Standby状态,HDFS使用失败 查看hdfs-site.xml 中serviceid 执行 sudo -u hdfs hdfs haadmin -transitionToActive --forcemanual +serviceid 阅读全文
posted @ 2017-04-05 20:26 流浪在伯纳乌 阅读(2310) 评论(0) 推荐(0)
摘要: 报错如下: 报错说root也没有权限,可能是当初建表的时候问题?还是hive 元数据库中的权限问题? 求解答 阅读全文
posted @ 2017-04-05 20:23 流浪在伯纳乌 阅读(310) 评论(0) 推荐(0)
摘要: 报错如下: 查看表数据存储的位置,文件情况发现hdfs 下该.gz压缩文件出现问题 重新导入 load data local inpath '/home/dp/db_apptrack_mobile_product.csv' overwrite into table stage.mobile_prod 阅读全文
posted @ 2017-04-05 20:17 流浪在伯纳乌 阅读(326) 评论(0) 推荐(0)
摘要: 报错信息如下: ERROR org.apache.hive.service.cli.thrift.ThriftCLIService: [Thread-11]: Error starting HiveServer2: could not start ThriftBinaryCLIService org 阅读全文
posted @ 2017-04-05 20:14 流浪在伯纳乌 阅读(3930) 评论(0) 推荐(0)
摘要: 将hdfs 中数据导入mysql sqoop export --connect jdbc:mysql://10.130.2.245:3306/test --update-key "id,name" --update-mode allowinsert --username dp --password  阅读全文
posted @ 2017-04-05 20:09 流浪在伯纳乌 阅读(1343) 评论(0) 推荐(0)
摘要: 报错信息: 常见问题分析: 1 hive metastore 数据库中用户名或者密码出现更改,并且重启了hive,导致生效但是CDH下没有及时更改hive metastore设置密码 2 Mysql 的连接驱动“ mysql-connector-java-5.1.26-bin.jar ”缺失。该驱动 阅读全文
posted @ 2017-04-05 20:01 流浪在伯纳乌 阅读(1286) 评论(0) 推荐(0)
摘要: #!/bin/bashsource /etc/profileupdatetime=`date --date='0 days ago' +“%Y-%m-%d %H:%M:%S"`echo "updatetime: "${updatetime}hiveF /auto_cron/cron-running/ 阅读全文
posted @ 2017-04-05 19:56 流浪在伯纳乌 阅读(376) 评论(0) 推荐(0)
摘要: 当对hive分区未做设置时,报错如下: Caused by: org.apache.hadoop.hive.ql.metadata.HiveFatalException: [Error 20004]: Fatal error occurred when node tried to create to 阅读全文
posted @ 2017-04-05 19:49 流浪在伯纳乌 阅读(7116) 评论(0) 推荐(0)
摘要: 将hdfs下/dw/dms/usr_trgt下的文件导入到mysql中test数据库下usr_trgt表中 sqoop-export --connect jdbc:mysql://mysqlDB:3306/test --username biadmin --password Abcd1234 --t 阅读全文
posted @ 2017-04-05 19:43 流浪在伯纳乌 阅读(2397) 评论(0) 推荐(1)
摘要: 报错如下: Unable to acquire IMPLICIT, EXCLUSIVE lock dms@pc_user_msg@month=201611 after 100 attempts. 显示dms库下的pc_user_msg表分区month=201611被锁住了, 查看是否被锁: show 阅读全文
posted @ 2017-04-05 19:36 流浪在伯纳乌 阅读(8484) 评论(0) 推荐(0)
摘要: 之前直接对timestamp类型做max操作, select id,max(updatetime) updatetime from his.tag group by id; 结果查询的结果有的显示为1970-01-01,如下图: 解决办法: 先将timestamp类型用unix_timestamp函 阅读全文
posted @ 2017-04-05 19:21 流浪在伯纳乌 阅读(1785) 评论(0) 推荐(0)