攻城狮科学家

  博客园  :: 首页  :: 新随笔  :: 联系 :: 订阅 订阅  :: 管理

2015年12月2日

摘要: http://my.oschina.net/laigous/blog/478438下载的是spark for hadoop 2.6版本安装成功后,master上应有一个Master进程,slave上应有一个Worker进程,如果报错,就在对应的logs里找出错原因。这次slave上总是装不上的原因是... 阅读全文
posted @ 2015-12-02 17:03 攻城狮科学家 阅读(147) 评论(0) 推荐(0)