摘要: 下载(pre build for Hadoop 2.7) http://www.alluxio.org/download` tar xvf alluxio 1.3.0 hadoop2.7 bin.tar ./bin/alluxio bootstrapConf localhost ./bin/allu 阅读全文
posted @ 2016-11-30 15:18 puroc 阅读(376) 评论(0) 推荐(0) 编辑
摘要: 1、在pom文件中增加如下内容 2、修改的代码需要重新编译, build-->Recompile 或 build-->Rebuild Project 阅读全文
posted @ 2016-11-13 22:46 puroc 阅读(190) 评论(0) 推荐(0) 编辑
摘要: 1、下载解压2、修改conf/zeppelin-env.sh,添加如下两行 3、启动 4、访问界面,http://192.168.99.129:9999 阅读全文
posted @ 2016-11-08 20:51 puroc 阅读(398) 评论(0) 推荐(0) 编辑
摘要: 环境: 两台虚拟机: 192.168.99.129 master 192.168.99.130 slave1 1、下载解压 2、编辑conf/hbase-env.sh 3、编辑conf/hbase-site.xml 1)hbase.cluster.distributed指定了Hbase的运行模式。f 阅读全文
posted @ 2016-11-08 10:34 puroc 阅读(170) 评论(0) 推荐(0) 编辑
摘要: 1、配置集群主机免登陆,参考http://www.cnblogs.com/puroc/p/5996730.html2、修改/etc/hosts文件,增加所有主机名和IP的对应关系 3、修改spark-env.sh,生命master主机的地址(需要使用主机名,使用IP时发生了莫名奇妙的错误) 4、修改 阅读全文
posted @ 2016-10-25 17:33 puroc 阅读(218) 评论(0) 推荐(0) 编辑
摘要: 1、下载spark,解压2、复制conf/spark-env.sh和conf/log4j.properties 3、编辑spark-env.sh,设置SPARK_LOCAL_IP,docker-1为主机名,对应IP为10.10.20.204 4、运行example,执行如下命令 5、启动shell 阅读全文
posted @ 2016-10-25 17:26 puroc 阅读(582) 评论(0) 推荐(0) 编辑
摘要: 【原理】 /root/.ssh/authorized_keys这个文件用来存储登录该主机的用户公钥信息,当用户采用ssh登录时,linux会用authorized_keys文件中存储的公钥和用户登录时发送的私钥进行匹配,如果匹配成功,则用户不需要输入密码即可登录。 【配置过程】 1、执行ssh-ke 阅读全文
posted @ 2016-10-25 15:04 puroc 阅读(277) 评论(0) 推荐(0) 编辑
摘要: 【问题】 解压spark的tar包后,执行bin/spark-shell,执行val lines=sc.textFile("README.md")时,抛错error: not found: value sc 【解决办法】 这是因为shell启动时没有初始化sparkContext,修改conf/sp 阅读全文
posted @ 2016-10-25 11:45 puroc 阅读(8845) 评论(1) 推荐(1) 编辑
摘要: 【Emmet(zencoding)】 1、command+shift+p==>pcip==>emmet 【AngularJs代码提示】 1、command+shift+p==>pcip==>AngularJs 【JQuery代码提示】 1、command+shift+p==>pcip==>JQuer 阅读全文
posted @ 2016-10-16 16:40 puroc 阅读(161) 评论(0) 推荐(0) 编辑
摘要: 【webstorm】 1、下载模板,地址为http://code.google.com/p/zen-coding/downloads/list,下载以下文件 WebIDE and IntelliJ IDEA Zen CSS WebIDE and IntelliJ IDEA Zen HTML WebI 阅读全文
posted @ 2016-10-16 15:52 puroc 阅读(1039) 评论(0) 推荐(0) 编辑