摘要: 1.用Hive对爬虫大作业产生的文本文件(或者英文词频统计下载的英文长篇小说)词频统计。 a.开启 b.查看 c.将网络爬虫大作业的结果存入txt,并且保存到hdfs里面。 首先需要修改曾经的代码,将爬出来的数据存入MuKeData.txt 这是爬虫爬出来的数据 将爬虫大作业得到的数据写入创建的Mu 阅读全文
posted @ 2018-05-19 18:37 166黄仲浩 阅读(727) 评论(0) 推荐(0) 编辑
摘要: 1.启动hadoop 打开所有命令:start-all.sh 2.Hdfs上创建文件夹 创建名为PGOne到user/hadoop 3.上传文件至hdfs 创建和修改508.txt文件,里面尽量多写一下,可写一些重复的内容,以便后面的查重。 4.启动Hive 打开hiv,不解释 5.创建原始文档表 阅读全文
posted @ 2018-05-16 16:31 166黄仲浩 阅读(354) 评论(0) 推荐(0) 编辑
摘要: 编写程序求每日最高最低气温,区间最高最低气温 阅读全文
posted @ 2018-05-09 21:42 166黄仲浩 阅读(150) 评论(0) 推荐(0) 编辑
摘要: 1. 以下关系型数据库中的表和数据,要求将其转换为适合于HBase存储的表并插入数据: 学生表(Student)(不包括最后一列) 学号(S_No) 姓名(S_Name) 性别(S_Sex) 年龄(S_Age) 课程(course) 2015001 Zhangsan male 23 2015003 阅读全文
posted @ 2018-05-08 21:16 166黄仲浩 阅读(145) 评论(0) 推荐(0) 编辑
摘要: 1.选一个自己感兴趣的主题。 2.用python 编写爬虫程序,从网络上爬取相关主题的数据。 3.对爬了的数据进行文本分析,生成词云。 4.对文本分析结果进行解释说明。 5.写一篇完整的博客,描述上述实现过程、遇到的问题及解决办法、数据分析思想及结论。 6.最后提交爬取的全部数据、爬虫及数据分析源代 阅读全文
posted @ 2018-04-30 19:25 166黄仲浩 阅读(179) 评论(0) 推荐(0) 编辑
摘要: 向HDFS中上传任意文本文件,如果指定的文件在HDFS中已经存在,由用户指定是追加到原有文件末尾还是覆盖原有的文件; cd bin/ $ if $(./hdfs dfs -test -e input/hzh.txt); then $(./hdfs dfs -appendToFile ~/hzh.tx 阅读全文
posted @ 2018-04-25 19:11 166黄仲浩 阅读(310) 评论(0) 推荐(0) 编辑
摘要: 任务如下: 1. 将新闻的正文内容保存到文本文件。 2. 将新闻数据结构化为字典的列表: 单条新闻的详情-->字典news 一个列表页所有单条新闻汇总-->列表newsls.append(news) 所有列表页的所有新闻汇总列表newstotal.extend(newsls) 3. 安装pandas 阅读全文
posted @ 2018-04-11 22:22 166黄仲浩 阅读(178) 评论(0) 推荐(0) 编辑
摘要: 1.取出一个新闻列表页的全部新闻 包装成函数。 2.获取总的新闻篇数,算出新闻总页数。 3.获取全部新闻列表页的全部新闻详情。 4.找一个自己感兴趣的主题,进行数据爬取,并进行分词分析。不能与其它同学雷同。 1-3: 4(爬慕课网): 阅读全文
posted @ 2018-04-11 16:06 166黄仲浩 阅读(250) 评论(0) 推荐(0) 编辑
摘要: 任务如下: 1. 用requests库和BeautifulSoup库,爬取校园新闻首页新闻的标题、链接、正文、show-info。 2. 分析info字符串,获取每篇新闻的发布时间,作者,来源,摄影等信息。 3. 将字符串格式的发布时间转换成datetime类型 4. 使用正则表达式取得新闻编号 5 阅读全文
posted @ 2018-04-07 12:38 166黄仲浩 阅读(167) 评论(0) 推荐(0) 编辑
摘要: Posted on 2018-03-29 21:54 170何强 阅读(2) 评论(0) 编辑 收藏 0.可以新建一个用于练习的html文件,在浏览器中打开。 1.利用requests.get(url)获取网页页面的html文件 import requests newsurl='http://new 阅读全文
posted @ 2018-03-29 22:00 166黄仲浩 阅读(112) 评论(0) 推荐(0) 编辑