摘要:
http://my.oschina.net/laigous/blog/478438下载的是spark for hadoop 2.6版本安装成功后,master上应有一个Master进程,slave上应有一个Worker进程,如果报错,就在对应的logs里找出错原因。这次slave上总是装不上的原因是... 阅读全文
posted @ 2015-12-02 17:03
攻城狮科学家
阅读(147)
评论(0)
推荐(0)