代码改变世界

R语言读取Hive数据表

2017-05-24 11:08  xplorerthik  阅读(4294)  评论(0编辑  收藏  举报

R通过RJDBC包连接Hive

目前Hive集群是可以通过跳板机来访问 HiveServer, 将Hive 中的批量数据读入R环境,并进行后续的模型和算法运算。

1. 登录跳板机后需要首先在Linux下进行配置

从root权限切换到bzsys用户,才能够通过验证读取Hive。首先需要配置Hadoop的临时环境变量CLASSPATH路径

su bzsys
export CLASSPATH=$CLASSPATH:/etc/hadoop/conf

2. 下载并安装RJDBC包

Linux下直接运行R的install 函数通常不成功,建议下载预编译的包通过命令行安装,如下载文件 RJDBC_0.2-6.tar.gz (http://www.rforge.net/RJDBC/)

切换到下载包所在的文件夹下,如 /etc/usr/R-patched/packages (替换为自己的目录),在终端运行R的命令行,完成安装。

R CMD INSTALL RJDBC_0.2-6.tar.gz

3. 进入R环境

library(RJDBC) # 载入RJDBC包
# 设置R连接时类的路径 CLASSPATH,注意一定要引hive/hadoop这三个路径下的所有包才可以通过认证
cp = c(list.files("/usr/lib/hive/lib", pattern = "[.]jar", full.names=TRUE, recursive=TRUE),
list.files("/usr/lib/hadoop", pattern = "[.]jar", full.names=TRUE, recursive=TRUE),
list.files("/etc/hadoop/conf", full.names=TRUE, recursive=TRUE),
recursive=TRUE
)
# 新建RJDBC的 Driver
drv <- JDBC(driverClass = "org.apache.hive.jdbc.HiveDriver", classPath = cp)
# 建立连接Connection
# 常见错误: 注意路径是jdbc:hive2:而不是jdbc:hive:, 因为新版Hive启用了 HiveServer2,替代了之前的HiveServer变量
# "hadoop-jy-backupserver:10000" 为济阳集群的URL和默认端口PORT 10000, "principal=" 为需要的特殊认证Authentication
hiveconnection <- dbConnect(drv,"jdbc:hive2://hadoop-jy-backupserver:10000/default;principal=hive/hadoop-jy-backupserver@HADOOP.QIYI.COM",user="*******", password="*******")   # *** 替换为相应用户名和密码

4. R操作 Hive数据表范例

library(RJDBC)
cp = c(list.files("/usr/lib/hive/lib", pattern = "[.]jar", full.names=TRUE, recursive=TRUE),
list.files("/usr/lib/hadoop", pattern = "[.]jar", full.names=TRUE, recursive=TRUE),
list.files("/etc/hadoop/conf", full.names=TRUE, recursive=TRUE),
recursive=TRUE
)
drv = JDBC(driverClass = "org.apache.hive.jdbc.HiveDriver", classPath = cp)
hiveconnection = dbConnect(drv,"jdbc:hive2://hadoop-jy-backupserver:10000/default;principal=hive/hadoop-jy-backupserver@HADOOP.QIYI.COM",user="*******", password="*******")   # *** 替换为相应用户名密码
 
# 从BAIDU_INDEX 表中查询记录的个数,存入DataFrame
count = dbGetQuery(hiveconnection,"SELECT count(*) FROM cpr.baidu_index"# 开始执行MapReduce任务
 
# 非查询Query的语句,如创建表CREATE, dbSendUpdate 函数执行所有非查询Query的语句
sqlCreateTbl = "CREATE TABLE IF NOT EXISTS cpr.person_correlation_graph_temp(rownames STRING,ibao_person_id_x STRING, ibao_person_id_y STRING,
    cor_index DOUBLE,start_date STRING,end_date STRING)"
result=dbSendUpdate(hiveconnection,sqlCreateTbl)
 
# 将数据写入Hive数据库
dfToLoad = data.frame(rownames=c('1','2'),ibao_person_id_x=c('盗墓笔记','盗墓笔记'),
ibao_person_id_y=c('李易峰','杨洋'),cor_index=c(0.8900,0.5100))
dbWriteTable(hiveconnection, "cpr.person_correlation_graph", dfToLoad, overwrite=TRUE)
 
# R中执行其他Hive SQL的函数
dbListTables(hiveconnection, "%qiyu%")
df = dbReadTable(hiveConn, "iris")