摘要: spark依赖scala,所以要下载sparak和scala俩个包 1、文件解压 2、环境变量 3、配置文件,spark/conf/slaves 4、复制分发 将/usr/local/spark 和 scala目录拷贝到各个从节点上 环境变量也拷贝到各个从节点上,刷新环境变量 5、安装完成可以测试验 阅读全文
posted @ 2016-06-02 11:28 王宇夫 阅读(322) 评论(0) 推荐(0)
摘要: 首先要安装好hadoop的集群 到官网下载hbase,我是CDH上下载的hbase-1.0.0-cdh5.4.5.tar.gz,兼容hadoop2.6.0比较好。 2. 环境变量 3. 配置文件设置: conf/hbase-site.xml conf/regionservers.xml 4. 复制分 阅读全文
posted @ 2016-06-02 10:54 王宇夫 阅读(311) 评论(0) 推荐(0)
摘要: 先到官网下载hive的编译好的包。 我下载的是apache-hive-1.1.1-bin.tar.gz,hadoop版本是2.6,工作模式选择独立模式 2. 解压安装 将apache-hive-1.1.1-bin.tar.gz解压hive到,/usr/local/ (如果不是用的root,解压到/h 阅读全文
posted @ 2016-06-02 09:52 王宇夫 阅读(941) 评论(0) 推荐(0)