摘要: Hadoop综合大作业 要求: 1.用Hive对爬虫大作业产生的文本文件(或者英文词频统计下载的英文长篇小说)词频统计。 我下载了一篇英文小说来进行词频统计分析。 首先启动hadoop 文件上传到hdfs 启动hive 创建小说表,并导入数据 用HQL进行词频统计,结果放在表word_count里 阅读全文
posted @ 2018-05-23 19:39 168李文辉 阅读(98) 评论(0) 推荐(0) 编辑
摘要: 通过hadoop上的hive完成WordCount 启动hadoop Hdfs上创建文件夹 上传文件至hdfs 启动Hive 创建原始文档表 导入文件内容到表docs并查看 用HQL进行词频统计,结果放在表word_count里 查看统计结果 阅读全文
posted @ 2018-05-16 16:19 168李文辉 阅读(101) 评论(0) 推荐(0) 编辑
摘要: 用mapreduce 处理气象数据集 编写程序求每日最高最低气温,区间最高最低气温 气象数据集下载地址为:ftp://ftp.ncdc.noaa.gov/pub/data/noaa 按学号后三位下载不同年份月份的数据(例如201506110136号同学,就下载2013年以6开头的数据,看具体数据情况 阅读全文
posted @ 2018-05-09 20:59 168李文辉 阅读(164) 评论(0) 推荐(0) 编辑
摘要: 1 2 3 阅读全文
posted @ 2018-05-08 21:06 168李文辉 阅读(120) 评论(0) 推荐(0) 编辑
摘要: 1.选一个自己感兴趣的主题。 2.用python 编写爬虫程序,从网络上爬取相关主题的数据。 3.对爬了的数据进行文本分析,生成词云。 4.对文本分析结果进行解释说明。 5.写一篇完整的博客,描述上述实现过程、遇到的问题及解决办法、数据分析思想及结论。 6.最后提交爬取的全部数据、爬虫及数据分析源代 阅读全文
posted @ 2018-04-30 17:49 168李文辉 阅读(127) 评论(0) 推荐(0) 编辑
摘要: 在本地Linux文件系统的“/home/hadoop/”目录下创建一个文件txt,里面可以随意输入一些单词 cd /usr/local/hadoop touch abc.txt cat abc.txt 在本地查看文件位置(ls) ./bin/hdfs dfs -ls /input 在本地显示文件内容 ./bin/hdfs dfs -cat input/ab... 阅读全文
posted @ 2018-04-25 15:02 168李文辉 阅读(124) 评论(0) 推荐(0) 编辑
摘要: 1. 将新闻的正文内容保存到文本文件 2. 将新闻数据结构化为字典的列表: 单条新闻的详情-->字典news 一个列表页所有单条新闻汇总-->列表newsls.append(news) 所有列表页的所有新闻汇总列表newstotal.extend(newsls) def gzcc_content_i 阅读全文
posted @ 2018-04-12 19:58 168李文辉 阅读(100) 评论(0) 推荐(0) 编辑
摘要: 1.取出一个新闻列表页的全部新闻 包装成函数。 2.获取总的新闻篇数,算出新闻总页数。 3.获取全部新闻列表页的全部新闻详情。 4.找一个自己感兴趣的主题,进行数据爬取,并进行分词分析。不能与其它同学雷同。 阅读全文
posted @ 2018-04-11 15:18 168李文辉 阅读(107) 评论(0) 推荐(0) 编辑
摘要: import requests re=requests.get('http://news.gzcc.cn/html/xiaoyuanxinwen/') re.encoding='utf-8' from bs4 import BeautifulSoup soup = BeautifulSoup(re.text,'html.parser') #print(soup.select('li')) for... 阅读全文
posted @ 2018-04-04 15:21 168李文辉 阅读(108) 评论(0) 推荐(0) 编辑
摘要: 1.利用requests.get(url)获取网页页面的html文件 import requests newsurl='http://news.gzcc.cn/html/xiaoyuanxinwen/' res = requests.get(newsurl) #返回response对象 res.en 阅读全文
posted @ 2018-03-29 16:53 168李文辉 阅读(103) 评论(0) 推荐(0) 编辑