摘要: Hadoop综合大作业 要求: 1.用Hive对爬虫大作业产生的文本文件(或者英文词频统计下载的英文长篇小说)进行词频统计。 启动hadoop: 查看hdfs上的文件夹: 将本地系统hadoop文件夹里的小王子英文版故事LittlePrince.txt上传至hdfs的hive文件夹中: 查看hdfs 阅读全文
posted @ 2018-05-23 22:24 243殷金秀 阅读(205) 评论(0) 推荐(0) 编辑
摘要: 通过hadoop上的hive完成WordCount 启动hadoop Hdfs上创建文件夹 将本地系统hadoop文件夹里的 Precious.txt上传文件至hdfs 启动Hive 创建原始文档表 导入文件内容到表docs并查看 用HQL进行词频统计,结果放在表word_counts里 查看统计结 阅读全文
posted @ 2018-05-17 00:07 243殷金秀 阅读(118) 评论(0) 推荐(0) 编辑
摘要: 用Python编写WordCount程序任务 程序 WordCount 输入 一个包含大量单词的文本文件 输出 文件中每个单词及其出现次数(频数),并按照单词字母顺序排序,每个单词和其频数占一行,单词和频数之间有间隔 编写map函数,reduce函数 将其权限作出相应修改 本机上测试运行代码 放到H 阅读全文
posted @ 2018-05-11 03:16 243殷金秀 阅读(124) 评论(0) 推荐(0) 编辑
摘要: 1. 以下关系型数据库中的表和数据,要求将其转换为适合于HBase存储的表并插入数据: 学生表(Student)(不包括最后一列) 学号(S_No) 姓名(S_Name) 性别(S_Sex) 年龄(S_Age) 课程(course) 2015001 Zhangsan male 23 2015003 阅读全文
posted @ 2018-05-08 17:09 243殷金秀 阅读(90) 评论(0) 推荐(0) 编辑
摘要: 1.选一个自己感兴趣的主题(所有人不能雷同)。 因为我是河源的,所以我爬取的是河源市公交网络站点数据。 爬取的站点:http://heyuan.8684.cn/ 1.选一个自己感兴趣的主题(所有人不能雷同)。 因为我是河源的,所以我爬取的是河源市公交网络站点数据。 爬取的站点:http://heyu 阅读全文
posted @ 2018-04-28 23:09 243殷金秀 阅读(374) 评论(0) 推荐(0) 编辑
摘要: Hadoop提供的Shell命令完成相同任务: 阅读全文
posted @ 2018-04-26 18:49 243殷金秀 阅读(152) 评论(0) 推荐(0) 编辑
摘要: 1. 将新闻的正文内容保存到文本文件。 2. 将新闻数据结构化为字典的列表: 单条新闻的详情-->字典news 一个列表页所有单条新闻汇总-->列表newsls.append(news) 所有列表页的所有新闻汇总列表newstotal.extend(newsls) 3. 安装pandas,用pand 阅读全文
posted @ 2018-04-17 22:39 243殷金秀 阅读(153) 评论(0) 推荐(0) 编辑
摘要: 学会使用正则表达式 import requests import re from bs4 import BeautifulSoup from datetime import datetime newsUrl = 'http://news.gzcc.cn/html/2017/xiaoyuanxinwe 阅读全文
posted @ 2018-04-10 20:42 243殷金秀 阅读(149) 评论(0) 推荐(0) 编辑
摘要: 1. 用requests库和BeautifulSoup库,爬取校园新闻首页新闻的标题、链接、正文。 2. 分析字符串,获取每篇新闻的发布时间,作者,来源,摄影等信息。 3. 将其中的发布时间由str转换成datetime类型。 4. 将完整的代码及运行结果截图发布在作业上。 阅读全文
posted @ 2018-04-03 21:17 243殷金秀 阅读(199) 评论(0) 推荐(0) 编辑
摘要: 0.可以新建一个用于练习的html文件,在浏览器中打开。 1.利用requests.get(url)获取网页页面的html文件 2.利用BeautifulSoup的HTML解析器,生成结构树 3.找出特定标签的html元素 4.取得含有特定CSS属性的元素 5.练习: 取出h1标签的文本 取出a标签 阅读全文
posted @ 2018-03-30 00:36 243殷金秀 阅读(196) 评论(0) 推荐(0) 编辑