摘要: 1.用Hive对爬虫大作业产生的文本文件(或者英文词频统计下载的英文长篇小说)进行词频统计。 2.用Hive对爬虫大作业产生的csv文件进行数据分析,写一篇博客描述你的分析过程和分析结果。 首先,我是分析慕课网的课程页面,也就是我前面的文章,爬虫大作业分析的数据。下面开始进行HIVE分析。 数据导入 阅读全文
posted @ 2018-05-25 20:34 099吴海经 阅读(87) 评论(0) 推荐(0) 编辑
摘要: . 用Python编写WordCount程序并提交任务 程序 WordCount 输入 一个包含大量单词的文本文件 输出 文件中每个单词及其出现次数(频数),并按照单词字母顺序排序,每个单词和其频数占一行,单词和频数之间有间隔 2. 用mapreduce 处理气象数据集 编写程序求每日最高最低气温, 阅读全文
posted @ 2018-05-10 21:23 099吴海经 阅读(97) 评论(0) 推荐(0) 编辑
摘要: create 'Student', ' S_No ','S_Name', ’S_Sex’,'S_Age' put 'Student','s001','S_No','2015001' put 'Student','s001','S_Name','Zhangsan' put 'Student','s001','S_Sex','male' put 阅读全文
posted @ 2018-05-04 21:42 099吴海经 阅读(77) 评论(0) 推荐(0) 编辑
摘要: 一、Hadoop提供的Shell命令完成相同任务: 在本地Linux文件系统的“/home/hadoop/”目录下创建一个文件txt,里面可以随意输入一些单词. mkdir hadoop 在本地查看文件位置(ls) cd hadoop 在本地显示文件内容 touch test.txt gedit t 阅读全文
posted @ 2018-04-27 21:11 099吴海经 阅读(101) 评论(0) 推荐(0) 编辑
摘要: 1.选一个自己感兴趣的主题或网站。(所有同学不能雷同) 2.用python 编写爬虫程序,从网络上爬取相关主题的数据。 3.对爬了的数据进行文本分析,生成词云。 4.对文本分析结果进行解释说明。 5.写一篇完整的博客,描述上述实现过程、遇到的问题及解决办法、数据分析思想及结论。 6.最后提交爬取的全 阅读全文
posted @ 2018-04-24 19:12 099吴海经 阅读(163) 评论(0) 推荐(0) 编辑
摘要: import requests from bs4 import BeautifulSoup import json import jieba.analyse from PIL import Image import numpy as np import matplotlib.pyplot as plt from wordcloud import WordCloud,ImageColorGener... 阅读全文
posted @ 2018-04-24 19:09 099吴海经 阅读(163) 评论(0) 推荐(0) 编辑
摘要: 1. 将新闻的正文内容保存到文本文件。 2. 将新闻数据结构化为字典的列表: 单条新闻的详情-->字典news news ={} 一个列表页所有单条新闻汇总-->列表newsls.append(news) newsList.append(getNewsDetail(newsUrl)) 所有列表页的所 阅读全文
posted @ 2018-04-16 11:38 099吴海经 阅读(81) 评论(0) 推荐(0) 编辑
摘要: 1. 用正则表达式判定邮箱是否输入正确。 a='974975677@qq.com' b='^(\w)+([\.\_\-]\w+)*@(\w)+((\.\w{2,3}){1,3})$' print(re.match(a,b)) 2. 用正则表达式识别出全部电话号码。 3. 用正则表达式进行英文分词。r 阅读全文
posted @ 2018-04-11 21:32 099吴海经 阅读(96) 评论(0) 推荐(0) 编辑
摘要: import requests from bs4 import BeautifulSoup url = 'http://news.gzcc.cn/html/xiaoyuanxinwen/' res = requests.get(url) res.encoding = 'utf-8' soup = B 阅读全文
posted @ 2018-04-02 11:42 099吴海经 阅读(129) 评论(0) 推荐(0) 编辑
摘要: 1.利用requests.get(url)获取网页页面的html文件 import requests newsurl='http://news.gzcc.cn/html/xiaoyuanxinwen/' res = requests.get(newsurl) #返回response对象 res.en 阅读全文
posted @ 2018-03-29 19:30 099吴海经 阅读(131) 评论(0) 推荐(0) 编辑