代码改变世界

Hadoop综合大作业

2018-05-24 21:58 by 129赖锐扬, 136 阅读, 0 推荐, 收藏, 编辑
摘要:Hadoop综合大作业 : 1.用Hive对爬虫大作业产生的文本文件(或者英文词频统计下载的英文长篇小说)进行词频统计。 2.用Hive对爬虫大作业产生的csv文件进行数据分析,写一篇博客描述你的分析过程和分析结果。 查询2014年被收藏最多的商品Top 10,说明这些商品很受欢迎 阅读全文

理解MapReduce

2018-05-10 21:05 by 129赖锐扬, 130 阅读, 0 推荐, 收藏, 编辑
摘要:1. 用Python编写WordCount程序并提交任务 程序 WordCount 输入 一个包含大量单词的文本文件 输出 文件中每个单词及其出现次数(频数),并按照单词字母顺序排序,每个单词和其频数占一行,单词和频数之间有间隔 编写map函数,reduce函数 # map函数 import sys 阅读全文

熟悉常用的HBase操作

2018-05-04 18:46 by 129赖锐扬, 168 阅读, 0 推荐, 收藏, 编辑
摘要:1. 以下关系型数据库中的表和数据,要求将其转换为适合于HBase存储的表并插入数据: 学生表(Student)(不包括最后一列) 学号(S_No) 姓名(S_Name) 性别(S_Sex) 年龄(S_Age) 课程(course) 2015001 Zhangsan male 23 2015003 阅读全文

熟悉常用的HDFS操作

2018-04-27 10:24 by 129赖锐扬, 166 阅读, 0 推荐, 收藏, 编辑
摘要:一、Hadoop提供的Shell命令完成相同任务: 在本地Linux文件系统的“/home/hadoop/”目录下创建一个文件txt,里面可以随意输入一些单词. mkdir hadoop 在本地查看文件位置(ls) cd hadoop 在本地显示文件内容 touch yyy.txt gedit yy 阅读全文

爬虫大作业-爬取B站弹幕

2018-04-23 19:25 by 129赖锐扬, 2714 阅读, 0 推荐, 收藏, 编辑
摘要:1.选一个自己感兴趣的主题或网站。(所有同学不能雷同) https://www.bilibili.com/video/av22224421 2.用python 编写爬虫程序,从网络上爬取相关主题的数据。 3.对爬了的数据进行文本分析,生成词云。 4.对文本分析结果进行解释说明。 5.写一篇完整的博客 阅读全文

数据结构化与保存

2018-04-16 15:42 by 129赖锐扬, 187 阅读, 0 推荐, 收藏, 编辑
摘要:1. 将新闻的正文内容保存到文本文件。 2. 将新闻数据结构化为字典的列表: 单条新闻的详情-->字典news 一个列表页所有单条新闻汇总-->列表newsls.append(news) 所有列表页的所有新闻汇总列表newstotal.extend(newsls) import requests f 阅读全文

使用正则表达式,取得点击次数,函数抽离

2018-04-09 13:04 by 129赖锐扬, 170 阅读, 0 推荐, 收藏, 编辑
摘要:import requests from bs4 import BeautifulSoup from datetime import datetime import locale import re locale.setlocale(locale.LC_CTYPE,'chinese') newsurl = 'http://news.gzcc.cn/html/xiaoyuanxinwen/' ... 阅读全文

爬取校园新闻首页的新闻

2018-04-02 19:24 by 129赖锐扬, 165 阅读, 0 推荐, 收藏, 编辑
摘要:import requests from bs4 import BeautifulSoup url = 'http://news.gzcc.cn/html/xiaoyuanxinwen/' res = requests.get(url) res.encoding = 'utf-8' soup = BeautifulSoup(res.text, 'html.parser') for news i... 阅读全文

网络爬虫基础练习

2018-03-29 12:53 by 129赖锐扬, 162 阅读, 0 推荐, 收藏, 编辑
摘要:import requests url = 'http://localhost:63342/bd/gouxueyuan.html?_ijt=kn4osq2f4cqos8pf8vjvmkrah7' res = requests.get(url) res.encoding = 'utf-8' from bs4 import BeautifulSoup soup = BeautifulSoup(re... 阅读全文

综合练习:词频统计

2018-03-26 11:09 by 129赖锐扬, 123 阅读, 0 推荐, 收藏, 编辑
摘要:fo=open('/Users/Administrator/Desktop/news.txt','r') news=fo.read() fo.close() sep=''',.?!";:--''' for i in sep: news=news.replace(i,' ').lower() news=news.split() word=dict(zip()) for i in new... 阅读全文