会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
cgz
博客园
首页
新随笔
联系
管理
订阅
2018年5月22日
Hadoop综合大作业
摘要: 1.用Hive对爬虫大作业产生的文本文件(或者英文词频统计下载的英文长篇小说)进行词频统计。 2.用Hive对爬虫大作业产生的csv文件进行数据分析,写一篇博客描述你的分析过程和分析结果。 1.用Hive对爬虫大作业产生的文本文件(或者英文词频统计下载的英文长篇小说)进行词频统计。 因为python
阅读全文
posted @ 2018-05-22 21:41 195陈冠中
阅读(141)
评论(0)
推荐(0)
2018年5月15日
hive基本操作与应用
摘要: 通过hadoop上的hive完成WordCount 启动hadoop Hdfs上创建文件夹 上传文件至hdfs 启动Hive 创建原始文档表 导入文件内容到表docs并查看 用HQL进行词频统计,结果放在表word_count里 查看统计结果
阅读全文
posted @ 2018-05-15 22:11 195陈冠中
阅读(96)
评论(0)
推荐(0)
2018年5月10日
理解MapReduce计算构架
摘要: 用Python编写WordCount程序任务 程序 WordCount 输入 一个包含大量单词的文本文件 输出 文件中每个单词及其出现次数(频数),并按照单词字母顺序排序,每个单词和其频数占一行,单词和频数之间有间隔 编写map函数,reduce函数 1.创建函数 2.编写两个函数 将其权限作出相应
阅读全文
posted @ 2018-05-10 13:56 195陈冠中
阅读(90)
评论(0)
推荐(0)
2018年5月9日
熟悉HBase基本操作
摘要: 1. 以下关系型数据库中的表和数据,要求将其转换为适合于HBase存储的表并插入数据: 学生表(Student)(不包括最后一列) 学号(S_No) 姓名(S_Name) 性别(S_Sex) 年龄(S_Age) 课程(course) 2015001 Zhangsan male 23 2015003
阅读全文
posted @ 2018-05-09 22:18 195陈冠中
阅读(78)
评论(0)
推荐(0)
2018年4月26日
熟悉常用的HDFS操作
摘要: 一、Hadoop提供的Shell命令完成相同任务: 在本地Linux文件系统的“/home/hadoop/”目录下创建一个文件txt,里面可以随意输入一些单词. 在本地查看文件位置(ls) 在本地显示文件内容 使用命令把本地文件系统中的“txt”上传到HDFS中的当前用户目录的input目录下。 查
阅读全文
posted @ 2018-04-26 11:25 195陈冠中
阅读(172)
评论(0)
推荐(0)
2018年4月22日
爬虫大作业
摘要: 通过 爬取2345电影网的电影信息 ,通过电影的类型和评分分别生成相应的词云 进行数据分析 一、准备过程 首先打开2345电影网的热播电影区,网址是https://dianying.2345.com/list/ .html 在这里可以通过审查模式看到第一页的详细信息,而目的则是通过爬取热播页面的每个
阅读全文
posted @ 2018-04-22 13:52 195陈冠中
阅读(800)
评论(0)
推荐(0)
2018年4月17日
数据结构化与保存
摘要: 1. 将新闻的正文内容保存到文本文件。 2. 将新闻数据结构化为字典的列表: 单条新闻的详情-->字典news 一个列表页所有单条新闻汇总-->列表newsls.append(news) 所有列表页的所有新闻汇总列表newstotal.extend(newsls) 单条新闻的详情-->字典news
阅读全文
posted @ 2018-04-17 20:14 195陈冠中
阅读(155)
评论(0)
推荐(0)
2018年4月10日
使用正则表达式,取得点击次数,函数抽离
摘要: 1. 用正则表达式判定邮箱是否输入正确。 r='^(\w)+(\.\w+)*@(\w)+((\.\w{2,3}){1,3})$' e='837760717@qq.com' if re.match(r,e): print(re.match(r,e)) else: print('格式错误!') 2. 用
阅读全文
posted @ 2018-04-10 21:20 195陈冠中
阅读(134)
评论(0)
推荐(0)
2018年4月3日
爬取校园新闻首页的新闻
摘要: 1. 用requests库和BeautifulSoup库,爬取校园新闻首页新闻的标题、链接、正文。 import requests from bs4 import BeautifulSoup from datetime import datetime res = requests.get("http
阅读全文
posted @ 2018-04-03 19:03 195陈冠中
阅读(109)
评论(0)
推荐(0)
2018年3月29日
网络爬虫基础练习
摘要: import requests url = 'http://news.gzcc.cn/html/xiaoyuanxinwen/' res = requests.get(url) res.encoding = 'utf-8' res.text from bs4 import BeautifulSoup
阅读全文
posted @ 2018-03-29 11:39 195陈冠中
阅读(116)
评论(0)
推荐(0)
下一页
公告