摘要:
1.将爬虫大作业产生的csv文件上传到HDFS,选取的文件是hhh.csv,大约30000条数据 创建文件夹,导入hhh.csv文件并查看。并启动hadoop 将hhh.csv文件导入hdfs中 导入数据库hive中,创建数据库dbpy,创建表hhh_py,并查看前五行数据。 用select选取城市 阅读全文
posted @ 2019-06-16 21:22
Heyuanz
阅读(221)
评论(0)
推荐(0)