摘要: Hadoop综合大作业 要求: 1.用Hive对爬虫大作业产生的文本文件(或者英文词频统计下载的英文长篇小说)进行词频统计。 2.用Hive对爬虫大作业产生的csv文件进行数据分析,写一篇博客描述你的分析过程和分析结果。 启动hadooop start-all.sh jps查看服务是否启动 把本地文 阅读全文
posted @ 2018-05-25 08:31 095罗冠达 阅读(82) 评论(0) 推荐(0) 编辑
摘要: 1. 用Python编写WordCount程序并提交任务 程序 WordCount 输入 一个包含大量单词的文本文件 输出 文件中每个单词及其出现次数(频数),并按照单词字母顺序排序,每个单词和其频数占一行,单词和频数之间有间隔 放到HDFS上运行 将之前爬取的文本文件上传到hdfs上 查看运行结果 阅读全文
posted @ 2018-05-10 21:28 095罗冠达 阅读(96) 评论(0) 推荐(0) 编辑
摘要: 1. 以下关系型数据库中的表和数据,要求将其转换为适合于HBase存储的表并插入数据: 学生表(Student)(不包括最后一列) 学号(S_No) 姓名(S_Name) 性别(S_Sex) 年龄(S_Age) 课程(course) 2015001 Zhangsan male 23 2015003 阅读全文
posted @ 2018-05-04 20:39 095罗冠达 阅读(95) 评论(0) 推荐(0) 编辑
摘要: 一、Hadoop提供的Shell命令完成相同任务: 二、 阅读全文
posted @ 2018-04-27 19:48 095罗冠达 阅读(87) 评论(0) 推荐(0) 编辑
摘要: 1.选一个自己感兴趣的主题或网站。(所有同学不能雷同) 我选了附近松田学校的校园网来爬取 2.用python 编写爬虫程序,从网络上爬取相关主题的数据。 # -*- coding: utf-8 -*- import requests from bs4 import BeautifulSoup as 阅读全文
posted @ 2018-04-24 20:36 095罗冠达 阅读(157) 评论(0) 推荐(0) 编辑
摘要: 1. 将新闻的正文内容保存到文本文件。 2. 将新闻数据结构化为字典的列表: 单条新闻的详情-->字典news 一个列表页所有单条新闻汇总-->列表newsls.append(news) 所有列表页的所有新闻汇总列表newstotal.extend(newsls) news = {} news['t 阅读全文
posted @ 2018-04-17 20:41 095罗冠达 阅读(94) 评论(0) 推荐(0) 编辑
摘要: import reimport requestsfrom bs4 import BeautifulSoupfrom datetime import datetimedef getClickCount(newsUrl): newId =re.search('\_(.*).html',newsUrl). 阅读全文
posted @ 2018-04-12 11:40 095罗冠达 阅读(91) 评论(0) 推荐(0) 编辑
摘要: 以上的上节课的练习 1. 用正则表达式判定邮箱是否输入正确。 2. 用正则表达式识别出全部电话号码。 3. 用正则表达式进行英文分词。re.split('',news) 4. 使用正则表达式取得新闻编号 5. 生成点击次数的Request URL 6. 获取点击次数 7. 将456步骤定义成一个函数 阅读全文
posted @ 2018-04-09 11:34 095罗冠达 阅读(108) 评论(0) 推荐(0) 编辑
摘要: 1. 用requests库和BeautifulSoup库,爬取校园新闻首页新闻的标题、链接、正文。 import requests from bs4 import BeautifulSoup url="http://news.gzcc.cn/html/xiaoyuanxinwen/" res=req 阅读全文
posted @ 2018-04-02 11:41 095罗冠达 阅读(113) 评论(0) 推荐(0) 编辑
摘要: 0.可以新建一个用于练习的html文件,在浏览器中打开。 1.利用requests.get(url)获取网页页面的html文件 import requests newsurl='http://news.gzcc.cn/html/xiaoyuanxinwen/' res = requests.get( 阅读全文
posted @ 2018-03-29 11:40 095罗冠达 阅读(112) 评论(0) 推荐(0) 编辑