导出hive表结构

公司hadoop集群迁移,需要迁移所有的表结构及比较重要的表的数据(跨云服务机房,源广州机房,目标北京机房)

1、迁移表结构

1)、老hive中导出表结构

1
hive -e "use db;show tables;" > tables.txt
1
2
3
4
5
6
7
#!/bin/bash
 
cat tables.txt |while read eachline
do
hive -e "use klwarehouse;show create table $eachline" >>tablesDDL.txt
echo ";" >> tablesDDL.txt
done  

2)、新hive中导入表结构

1
hive -f tableDDL.txt

  

对了,执行之前要先建立db,然后在tableDDL.txt前面加上use db;

 

2、迁移表数据

目前使用的方案是一个一个将表数据导出到HDFS,接着下载到云主机中,压缩,外网传到新的hive集群网络中的主机中,解压,上传至HDFS,上传至HIVE

1)、将HIVE表数据导出至HDFS

1
2
hdfs dfs -mkdir /tmp/hive-export<br><br>use db;
export table 表名 to /tmp/hive-export

  

2)、将HDFS数据下载至主机中

1
hdfs dfs -get /tmp/hive-export/

 

3)、将数据压缩

1
tar -zcvf hivetable1.tar.gz hive-export

  

4)、将数据发送至目标hive集群的内网主机中

1
scp hivetable1.tar.gz root@x.x.x.x:/data  

 

5)、解压数据

1
tar -zxvf hivetable1.tar.gz

 

6)、将数据上传至HDFS中

1
hdfs dfs -put hive-export/ /tmp/hive-export

  

7)、将HDFS数据上传至Hive表中

1
2
use db;
posted @ 2020-07-15 14:33  DB乐之者  阅读(4732)  评论(0)    收藏  举报