hadoop大作业

摘要: Hadoop综合大作业 要求: 1.用Hive对爬虫大作业产生的文本文件(或者英文词频统计下载的英文长篇小说)进行词频统计。 1、启动hadoop 2、Hdfs上创建文件夹并查看 3、上传英文词频统计文本至hdfs 4、启动Hive 5、导入文件内容到表docs并查看 6、进行词频统计 7、查看统计 阅读全文
posted @ 2018-05-25 14:49 238-许锦沛 阅读(150) 评论(0) 推荐(0) 编辑

hive基本操作与应用

摘要: 通过hadoop上的hive完成WordCount 启动hadoop Hdfs上创建文件夹 创建文件夹 上传文件至hdfs 启动Hive 创建原始文档表 导入文件内容到表docs并查看 用HQL进行词频统计,结果放在表word_count里 查看统计结果 阅读全文
posted @ 2018-05-17 20:36 238-许锦沛 阅读(100) 评论(0) 推荐(0) 编辑

理解MapReduce计算构架

摘要: 用Python编写WordCount程序任务 程序 WordCount 输入 一个包含大量单词的文本文件 输出 文件中每个单词及其出现次数(频数),并按照单词字母顺序排序,每个单词和其频数占一行,单词和频数之间有间隔 1.编写map函数,reduce函数 首先先创建文件 然后编写两个函数 2.将其权 阅读全文
posted @ 2018-05-10 22:29 238-许锦沛 阅读(183) 评论(0) 推荐(0) 编辑

熟悉HBase基本操作

摘要: 熟悉HBase基本操作 1. 以下关系型数据库中的表和数据,要求将其转换为适合于HBase存储的表并插入数据: 学生表(Student)(不包括最后一列) 学号(S_No) 姓名(S_Name) 性别(S_Sex) 年龄(S_Age) 课程(course) 2015001 Zhangsan male 阅读全文
posted @ 2018-05-10 09:20 238-许锦沛 阅读(123) 评论(0) 推荐(0) 编辑

熟悉常用的HDFS操作

摘要: 一、Hadoop提供的Shell命令完成相同任务: 1 2 3 ./bin/hdfs dfs -get input/text.txt /home/hadoop ./bin/hdfs dfs -rm -r input/text.txt ./bin/hdfs dfs -ls input 1 2 3 ./ 阅读全文
posted @ 2018-04-27 21:58 238-许锦沛 阅读(154) 评论(0) 推荐(0) 编辑

爬虫大作业

摘要: 1.使用urllib库对网页进行爬取,其中'https://movie.douban.com/cinema/nowplaying/guangzhou/'是豆瓣电影正在上映的电影页面, 定义html_data变量,存放网页html代码,输入 print(html_data)可以查看输出结果。 输入pr 阅读全文
posted @ 2018-04-25 23:10 238-许锦沛 阅读(786) 评论(0) 推荐(0) 编辑

数据结构化与保存

摘要: 1. 将新闻的正文内容保存到文本文件。 def addcontent(content): f = open("newsContent.txt", "a") f.write('content) f.close() 2. 将新闻数据结构化为字典的列表: 单条新闻的详情-->字典news def getN 阅读全文
posted @ 2018-04-18 20:41 238-许锦沛 阅读(143) 评论(0) 推荐(0) 编辑

使用正则表达式,取得点击次数,函数抽离

摘要: 1. 用正则表达式判定邮箱是否输入正确。 import re def isEmail(email): #声明函数isEmail实现邮箱格式验证 if re.match("^.+\\@(\\[?)[a-zA-Z0-9\\-\\.]+\\.([a-zA-Z]{2,3}|[0-9]{1,3})(\\]?) 阅读全文
posted @ 2018-04-10 17:47 238-许锦沛 阅读(184) 评论(0) 推荐(0) 编辑

爬取校园新闻首页的新闻

摘要: 1. 用requests库和BeautifulSoup库,爬取校园新闻首页新闻的标题、链接、正文。 效果显示如下图所示: 2. 分析字符串,获取每篇新闻的发布时间,作者,来源,摄影等信息。 效果显示如下图所示: 3. 将其中的发布时间由str转换成datetime类型。 效果显示如下图所示: 阅读全文
posted @ 2018-04-10 15:55 238-许锦沛 阅读(195) 评论(0) 推荐(0) 编辑

网络爬虫基础练习

摘要: 0.可以新建一个用于练习的html文件,在浏览器中打开。 1.利用requests.get(url)获取网页页面的html文件 import requests newsurl='http://news.gzcc.cn/html/xiaoyuanxinwen/' res = requests.get( 阅读全文
posted @ 2018-03-30 18:49 238-许锦沛 阅读(225) 评论(0) 推荐(0) 编辑