HIVE学习安装第一阶段,零散整理,技术问题查找解决方案,GOOGLE比百度还是给力的多

hadoop的安装
参考https://blog.csdn.net/qq_36349200/article/details/79577697
不过在做hadoop version的报错
最后重装jdk,更新到一个没有空格的目录里面

问题Hive安装成功了,怎么使用,Hive的优势是什么?


mysql-connector-java-5.1.26-bin.jar  是否放到hive/lib 目录下

来自 <https://blog.csdn.net/youngqj/article/details/19987727>


http://f.dataguru.cn/hadoop-629722-1-1.html
错误描述
配置好hive并启动两个必要后台进程metastore和hiveserver2后,启动hive时可能会遇到Required table missing : "DBS`" in Catalog "" Schema "这样的错误。因为在此实验环境中,hive的元数据保存在远程的mysql中,所以该错误意思是:在远程的数据库中没有找到相应的数据对象。

来自 <http://f.dataguru.cn/hadoop-629722-1-1.html>

 

https://blog.csdn.net/youngqj/article/details/19987727

4. 修改conf/hive-site.xml 中的 “hive.metastore.schema.verification”  值为 false  即可解决 “Caused by: MetaException(message:Version information not found in metastore. )” 
---------------------
作者:youngqj
来源:CSDN
原文:https://blog.csdn.net/youngqj/article/details/19987727
版权声明:本文为博主原创文章,转载请附上博文链接!

 

解决Hadoop namenode启动 **dfs/name is in an inconsistent state的问题

来自 <https://www.linuxidc.com/Linux/2012-02/53998.htm>

 

1. 主要是没有设置 namenode和datanode 的缺省路径造成的。
如果将Hadoop配置成伪分布模式,则Hadoop会将各种信息存入\tmp目录中,所以当系统重启之后,这些信息会丢失,使得用户不得不重新执行hadoop namenode -format命令。为了避免这种情况,可以在hdfs-site.xml文件中添加一个属性,属性名为dfs.name.dir,值为你想存的目录,只要不存在\tmp下,就不会遇到每次重启之后元数据丢失的情况。
2. 设置 hdfs-site.xml
增加如来2个属性
<property> 
<name>dfs.name.dir</name> 
<value>/home/hadoop/name/</value> #hadoop的name目录路径     
</property> 
<property> 
<name>dfs.data.dir</name> 
<value>/home/hadoop/data/</value> #hadoop的data目录路径 
</property>
3. 重新格式化
  bin/hadoop  namenode  -format
4. 启动hadoop


来自 <https://www.linuxidc.com/Linux/2012-02/53998.htm>


google搜索如下警告

 

http://www.koubeiblog.com/inteqa/7b7d1195efdac1fc33b2a06060157496.html

https://stackoverflow.com/questions/47250251/start-all-cmd-gives-error-til-sysinfowindows-expected-split-length-of-sysinfo

 

 

 

https://blog.csdn.net/yannqi/article/details/81476079?utm_source=blogxgwz0

可以不用导入初始化,设置了root的话

启动metastore前,将mysql的初始化脚本使用mysql工具导入hive库,即:\scripts\metastore\upgrade\mysql\下的hive-txn-schema-2.3.0.mysql.sql和hive-txn-schema-2.3.3.mysql.sql。

启动hadoop:start-all.cmd
启动metastore服务:hive --service metastore
启动Hive:hive

posted @ 2018-10-29 11:16  shadow  阅读(180)  评论(0)    收藏  举报