hadoop综合大作业

1.用Hive对爬虫大作业产生的文本文件(或者英文词频统计下载的英文长篇小说)进行词频统计。

先启动Hadoop。

jps查看各个服务已启动

 

把本地文件上传到hdfs文件系统

建个表text

把hdfs文件系统中input文件夹里的文本文件load进去,写hiveQL命令统计

 使用select命令查看结果

 

2.用Hive对爬虫大作业产生的csv文件进行数据分析,写一篇博客描述你的分析过程和分析结果。

我选择用之前校园网爬取的数据导出成csv格式

 

然后将这个csv复制黏贴到当地的local/bigdatacase/dataset下,然后新建一个pre_deal.sh然后再让它俩生成一个txt

接着就是就是将它上传到hdfs 的hadoop/biddata/dataset中。然后在创建一个database,外键表将这个txt的数据填到表里面。

因为时间处理得不好,类型不是date,所以标示的是null。

没有时间不能做出其他更好的数据分析,于是我分析了多少条数据。

结果是760条。

posted on 2018-05-25 19:00  140-吴华锐  阅读(121)  评论(0编辑  收藏  举报