sparksql与hive整合
参考文献:
http://blog.csdn.net/stark_summer/article/details/48443147
hive配置
编辑 $HIVE_HOME/conf/Hive-site.xml,增加如下内容:
<property> <name>hive.metastore.uris</name> <value>thrift://master:9083</value> <description>Thrift uri for the remote metastore. Used by metastore client to connect to remote metastore.</description> </property>

启动hive metastore
启动 metastore:
hive --service metastore &

查看 metastore:
jobs

关闭 metastore:
$kill %1
kill %jobid,1代表job id

spark配置
将 $HIVE_HOME/conf/hive-site.xml copy或者软链 到 $SPARK_HOME/conf/ 将 $HIVE_HOME/lib/mysql-connector-java-5.1.12.jar copy或者软链到$SPARK_HOME/lib/
copy或者软链$SPARK_HOME/lib/ 是方便spark standalone模式使用
启动spark-sql


注:
如果没有启动 hive metastore 则会:

本博客是博主个人学习时的一些记录,不保证是为原创,个别文章加入了转载的源地址,还有个别文章是汇总网上多份资料所成,在这之中也必有疏漏未加标注处,如有侵权请与博主联系。
如果未特殊标注则为原创,遵循 CC 4.0 BY-SA 版权协议。
posted on 2017-05-29 16:14 Angry_Panda 阅读(424) 评论(0) 收藏 举报
浙公网安备 33010602011771号