Spark环境搭建遇到的问题

1.始终找不到Hive表的问题

原因:官方编译后的Spark1.2.0+hadoop2.4与hadoop2.4.1不匹配

解决方法有两个:

a.将Hadoop2.4.1替换为2.4.0版本

b.重新编译Spark1.2.0

posted @ 2015-11-19 14:18  镜涛  阅读(217)  评论(0编辑  收藏  举报
Creative Commons License

本文基于署名 2.5 中国大陆许可协议发布,欢迎转载,演绎或用于商业目的,但是必须保留本文的署名孙镜涛(包含链接)。如您有任何疑问或者授权方面的协商,请给我留言