2018年7月23日

摘要: 有时候启动spark-shell时总是出现not found错误: 查看上面的报错提示: 解决方法: 在机器bsaworker用户执行 /home/bsaworker/hes/hadoop/hadoop-2.6.0/sbinhadoop-daemons.sh start zkfc 阅读全文

posted @ 2018-07-23 14:46 ccvaico 阅读(403) 评论(0) 推荐(0)

2018年3月23日

摘要: 前提:hive已经安装配置完成,机器上已有postgresql。 hive默认的元数据库为derby,用来测试没有问题,但是要使用大量数据就会有点吃力,因此将hive数据库修改为postgresql。 1.首先需要下载postgresql的jdbc驱动包(需要选择与自己系统环境相符的版本): weg 阅读全文

posted @ 2018-03-23 15:40 ccvaico 阅读(895) 评论(0) 推荐(0)