2018年5月24日

Hadoop综合大作业

摘要: Hadoop综合大作业 要求: 1.用Hive对爬虫大作业产生的文本文件(或者英文词频统计下载的英文长篇小说)进行词频统计。 选一篇小说写 启动hadoop Hdfs上创建文件夹 上传文件至hdfs 启动Hive 创建原始文档表 导入文件内容到表nodacs并查看 用HQL进行词频统计,结果放在表w 阅读全文

posted @ 2018-05-24 20:07 249伍思敏 阅读(99) 评论(0) 推荐(0) 编辑

2018年5月17日

hive基本操作与应用

摘要: 通过hadoop上的hive完成WordCount 启动hadoop Hdfs上创建文件夹 上传文件至hdfs 启动Hive 创建原始文档表 导入文件内容到表docs并查看 用HQL进行词频统计,结果放在表word_count里 查看统计结果 阅读全文

posted @ 2018-05-17 19:41 249伍思敏 阅读(146) 评论(0) 推荐(0) 编辑

2018年5月11日

理解MapReduce计算构架

摘要: 用Python编写WordCount程序任务 程序 WordCount 输入 一个包含大量单词的文本文件 输出 文件中每个单词及其出现次数(频数),并按照单词字母顺序排序,每个单词和其频数占一行,单词和频数之间有间隔 将其权限作出相应修改 本机上测试运行代码 放到HDFS上运行 下载并上传文件到hd 阅读全文

posted @ 2018-05-11 21:44 249伍思敏 阅读(96) 评论(0) 推荐(0) 编辑

2018年5月10日

熟悉HBase基本操作

摘要: 1. 以下关系型数据库中的表和数据,要求将其转换为适合于HBase存储的表并插入数据: 学生表(Student)(不包括最后一列) 学号(S_No) 姓名(S_Name) 性别(S_Sex) 年龄(S_Age) 课程(course) 2015001 Zhangsan male 23 2015003 阅读全文

posted @ 2018-05-10 19:20 249伍思敏 阅读(108) 评论(0) 推荐(0) 编辑

2018年4月30日

爬虫大作业

摘要: 1.选一个自己感兴趣的主题(所有人不能雷同)。 我比较感兴趣的是戏剧网里的京剧 网址:http://www.xijucn.com/html/jingju/list_1_1.html 2.用python 编写爬虫程序,从网络上爬取相关主题的数据。 网页的页面是: 打开网页的详情页面: 爬取标题:页面的 阅读全文

posted @ 2018-04-30 13:59 249伍思敏 阅读(421) 评论(0) 推荐(0) 编辑

2018年4月27日

熟悉常用的HDFS操作

摘要: 一、Hadoop提供的Shell命令完成相同任务: 在本地Linux文件系统的“/home/hadoop/”目录下创建一个文件txt,里面可以随意输入一些单词. mkdir hadoop cd hadoop touch test.txt gedit test.txt 在本地查看文件位置(ls) ls 阅读全文

posted @ 2018-04-27 16:58 249伍思敏 阅读(87) 评论(0) 推荐(0) 编辑

2018年4月18日

数据结构化与保存

摘要: 1. 将新闻的正文内容保存到文本文件。 2. 将新闻数据结构化为字典的列表: 单条新闻的详情-->字典news 一个列表页所有单条新闻汇总-->列表newsls.append(news) 所有列表页的所有新闻汇总列表newstotal.extend(newsls) 3. 安装pandas,用pand 阅读全文

posted @ 2018-04-18 01:01 249伍思敏 阅读(95) 评论(0) 推荐(0) 编辑

2018年4月11日

使用正则表达式,取得点击次数,函数抽离

摘要: 学会使用正则表达式 1. 用正则表达式判定邮箱是否输入正确。 2. 用正则表达式识别出全部电话号码。 3. 用正则表达式进行英文分词。re.split('',news) 4. 使用正则表达式取得新闻编号 5. 生成点击次数的Request URL 6. 获取点击次数 7. 将456步骤定义成一个函数 阅读全文

posted @ 2018-04-11 21:23 249伍思敏 阅读(105) 评论(0) 推荐(0) 编辑

2018年4月4日

爬取校园新闻首页的新闻

摘要: 1. 用requests库和BeautifulSoup库,爬取校园新闻首页新闻的标题、链接、正文。 import requests from bs4 import BeautifulSoup from datetime import datetime ww= requests.get('http:/ 阅读全文

posted @ 2018-04-04 15:59 249伍思敏 阅读(79) 评论(0) 推荐(0) 编辑

2018年3月30日

网络爬虫基础练习

摘要: 0.可以新建一个用于练习的html文件,在浏览器中打开。 1.利用requests.get(url)获取网页页面的html文件 2.利用BeautifulSoup的HTML解析器,生成结构树 3.找出特定标签的html元素 4.取得含有特定CSS属性的元素 5.练习: 取出h1标签的文本 取出a标签 阅读全文

posted @ 2018-03-30 17:56 249伍思敏 阅读(125) 评论(0) 推荐(0) 编辑

导航