摘要: 默认情况下,spark官方提供了针对hadoop和hive的预编译发行版,但这可能跟我们的期望的有些差异。比如说,与实际生产环境中的hadoop或hive版本不同可能会导致兼容性问题,也可能是官方使用的版本陈旧而我们想体验新特性等,又或者是我们想增加某些功能而调整源码。因此,面对各种不同的需求,就需 阅读全文
posted @ 2014-11-18 11:33 孟尧 阅读(402) 评论(0) 推荐(0)