上一页 1 2 3 4 5 6 ··· 23 下一页
摘要: 将txt文本文件放置hdfs目录下 2、登录hive并进入到指定数据库 3、创建表 create external table if not exists fun_user_external ( tid INT, userid STRING, pwd STRING, create_time BIGI 阅读全文
posted @ 2021-11-27 17:13 sean1246 阅读(64) 评论(0) 推荐(0)
摘要: 从别的表中查询出相应的数据并导入到Hive表中假设Hive中有test表,其建表语句如下所示: hive> create table test( > id int, name string > ,tel string) > partitioned by > (age int) > ROW FORMA 阅读全文
posted @ 2021-11-24 17:02 sean1246 阅读(48) 评论(0) 推荐(0)
摘要: HDFS上导入数据到Hive表 从本地文件系统中将数据导入到Hive表的过程中,其实是先将数据临时复制到HDFS的一个目录下(典型的情况是复制到上传用户的HDFS home目录下,比如/home/wyp/),然后再将数据从那个临时目录下移动(注意,这里说的是移动,不是复制!)到对应的Hive表的数据 阅读全文
posted @ 2021-11-21 16:58 sean1246 阅读(52) 评论(0) 推荐(0)
摘要: 从本地文件系统中导入数据到Hive表先在Hive里面创建好表,如下: hive> create table wyp > (id int, name string, > age int, tel string) > ROW FORMAT DELIMITED > FIELDS TERMINATED BY 阅读全文
posted @ 2021-11-18 16:55 sean1246 阅读(84) 评论(0) 推荐(0)
摘要: 复制CSV格式文件 原文件test.csv import csvf=open('test.csv')#1.newline=''消除空格行aim_file=open('Aim.csv','w',newline='')write=csv.writer(aim_file)reader=csv.reader 阅读全文
posted @ 2021-11-15 16:56 sean1246 阅读(68) 评论(0) 推荐(0)
摘要: python操作csv: 读取表头的2中方式 #方式一import csvwith open("D:\\test.csv") as f: reader = csv.reader(f) rows=[row for row in reader] print(rows[0]) #方式二import csv 阅读全文
posted @ 2021-11-12 17:07 sean1246 阅读(59) 评论(0) 推荐(0)
摘要: java导入excel: package org.example;import org.apache.poi.openxml4j.exceptions.InvalidFormatException;import org.apache.poi.ss.usermodel.Cell;import org. 阅读全文
posted @ 2021-11-09 17:00 sean1246 阅读(61) 评论(0) 推荐(0)
摘要: java操作hive: package org.example;import org.junit.After;import org.junit.Before;import org.junit.Test;import java.sql.*;public class hive { private sta 阅读全文
posted @ 2021-11-06 17:04 sean1246 阅读(62) 评论(0) 推荐(0)
摘要: MSF——Microsoft Solution Framework 是一套大型系统开发指南,它描述了如何用组队模型、过程模型和应用模型来开发Client/Serve结构的应用程序,是在微软的工具和技术的基础上建立并开发分布式企业系统应用的参考。MSF的最大特性是商业化,并自始至终地体现在项目的实施过 阅读全文
posted @ 2021-11-03 23:34 sean1246 阅读(23) 评论(0) 推荐(0)
摘要: 1、Hadoop设置通过以下命令启动远程服务: hadoop@bdi:~$ hive --service hiveserver2 >/dev/null &远程服务对外的端口是10000,启动成功后,使用netstat命令验证:hadoop@bdi:~$ netstat -antpl|grep 100 阅读全文
posted @ 2021-10-31 17:07 sean1246 阅读(343) 评论(0) 推荐(0)
上一页 1 2 3 4 5 6 ··· 23 下一页