代码改变世界

Hadoop综合大作业

2018-05-24 21:33 by 216-陈文建, 183 阅读, 0 推荐, 收藏, 编辑
摘要:1.用Hive对爬虫大作业产生的文本文件(或者英文词频统计下载的英文长篇小说)进行词频统计。 在网上下载英文小说,通过QQ邮箱下载到虚拟机的/home/hadoop/wc 首先要启动dfs: 检查配置环境: 在user/hadoop/上创建文件夹word: 上传下载文档到user/hadoop/wo 阅读全文

hive基本操作与应用

2018-05-16 20:21 by 216-陈文建, 144 阅读, 0 推荐, 收藏, 编辑
摘要:通过hadoop上的hive完成WordCount 1、启动hadoop 2、Hdfs上创建文件夹 3.上传文件至hdfs 上传到hdfs/data文件中 启动Hive 创建原始文档表 导入文件内容到表docs并查看 导入: 查看: 用HQL进行词频统计,结果放在表word_count里 查看统计结 阅读全文

理解MapReduce计算构架

2018-05-11 21:57 by 216-陈文建, 154 阅读, 0 推荐, 收藏, 编辑
摘要:用Python编写WordCount程序任务 程序 WordCount 输入 一个包含大量单词的文本文件 输出 文件中每个单词及其出现次数(频数),并按照单词字母顺序排序,每个单词和其频数占一行,单词和频数之间有间隔 编写map函数,reduce函数 将其权限作出相应修改 本机上测试运行代码 放到H 阅读全文

熟悉常用的Hbase操作

2018-05-08 20:08 by 216-陈文建, 234 阅读, 0 推荐, 收藏, 编辑
摘要:1. 以下关系型数据库中的表和数据,要求将其转换为适合于HBase存储的表并插入数据: 学生表(Student)(不包括最后一列) 学号(S_No) 姓名(S_Name) 性别(S_Sex) 年龄(S_Age) 课程(course) 2015001 Zhangsan male 23 2015003 阅读全文

爬虫大作业

2018-04-26 22:55 by 216-陈文建, 393 阅读, 0 推荐, 收藏, 编辑
摘要:1.选一个自己感兴趣的主题(所有人不能雷同)。 我选择了我们学校的新闻网来爬取数据,主要是通过获取文本然后结巴来分析 2.用python 编写爬虫程序,从网络上爬取相关主题的数据。 打开广州商学院的网址进入到校园的新闻网。然后通过对每一页的来获取信息。 3.对爬了的数据进行文本分析,生成词云。 首先 阅读全文

熟悉常用的HDFS操作

2018-04-26 22:39 by 216-陈文建, 264 阅读, 0 推荐, 收藏, 编辑
摘要:一、Hadoop提供的Shell命令完成相同任务: mkdir hadoop cd hadoop ~/hadoop$ touch test.txt ~/hadoop$ gedit test.txt mkdir hadoop cd hadoop ~/hadoop$ touch test.txt ~/h 阅读全文

数据结构化与保存

2018-04-17 20:55 by 216-陈文建, 141 阅读, 0 推荐, 收藏, 编辑
摘要:1. 将新闻的正文内容保存到文本文件。 # 将新闻内容写入文本 def writeNewsDetail(content): f = open('gzccnews.txt', 'a', encoding='utf-8') f.write(content) f.close() 2. 将新闻数据结构化为字 阅读全文

使用正则表达式,取得点击次数,函数抽离

2018-04-10 20:53 by 216-陈文建, 172 阅读, 0 推荐, 收藏, 编辑
摘要:学会使用正则表达式 1. 用正则表达式判定邮箱是否输入正确。 2. 用正则表达式识别出全部电话号码。 3. 用正则表达式进行英文分词。re.split('',news) 4. 使用正则表达式取得新闻编号 5. 生成点击次数的Request URL 6. 获取点击次数 7. 将456步骤定义成一个函数 阅读全文

爬取校园新闻首页的新闻

2018-04-03 20:23 by 216-陈文建, 158 阅读, 0 推荐, 收藏, 编辑
摘要:1. 用requests库和BeautifulSoup库,爬取校园新闻首页新闻的标题、链接、正文。 import requests from bs4 import BeautifulSoup url = 'http://news.gzcc.cn/html/xiaoyuanxinwen/' res = requests.get(url) res.encoding = 'utf-8' soup =... 阅读全文

网络爬虫基础练习

2018-03-29 14:35 by 216-陈文建, 133 阅读, 0 推荐, 收藏, 编辑
摘要:1.利用requests.get(url)获取网页页面的html文件 import requests newsurl='http://news.gzcc.cn/html/xiaoyuanxinwen/' res = requests.get(newsurl) #返回response对象 res.en 阅读全文