SparkSQL与Hive的整合

SparkSQL与Hive的整合

1. 拷贝$HIVE_HOME/conf/hive-site.xml和hive-log4j.properties到 $SPARK_HOME/conf/

2.$SPARK_HOME/conf/目录中,修改spark-env.sh,添加

export HIVE_HOME=/usr/local/apache-hive-0.13.1-bin

export SPARK_CLASSPATH=$HIVE_HOME/lib/mysql-connector-java-5.1.15-bin.jar:$SPARK_CLASSPATH

3. 另外也可以设置一下Spark的log4j配置文件,使得屏幕中不打印额外的INFO信息:

log4j.rootCategory=WARN, console

好了,SparkSQL与Hive的整合就这么简单
posted @ 2016-08-17 09:32  大雨点  阅读(16)  评论(0)    收藏  举报