摘要:
Hadoop综合大作业 1.用Hive对爬虫大作业产生的文本文件(或者英文词频统计下载的英文长篇小说)词频统计。 1.首先启动hadoop,并查看环境是否齐全 2..在Hdfs上创建文件夹storyinput,并且创建并编辑story.txt。将下载的英文小说写进去。而我只是将一篇章节的英文小说放进 阅读全文
摘要:
通过hadoop上的hive完成WordCount 1.启动hadoop 2.Hdfs上创建文件夹 先创建user 之后创建hadoop ,之后创建wcinput,之后查看目录 3.上传文件至hdfs 首先创建并编辑要上传的文件,我的是159.txt. 4.启动Hive 5.创建原始文档表 6.导入 阅读全文
摘要:
编写程序求每日最高最低气温,区间最高最低气温 气象数据集下载地址为:ftp://ftp.ncdc.noaa.gov/pub/data/noaa 按学号后三位下载不同年份月份的数据(例如201506110136号同学,就下载2013年以6开头的数据,看具体数据情况稍有变通) 解压数据集,并保存在文本文 阅读全文
摘要:
1. 以下关系型数据库中的表和数据,要求将其转换为适合于HBase存储的表并插入数据: 学生表(Student)(不包括最后一列) 学号(S_No) 姓名(S_Name) 性别(S_Sex) 年龄(S_Age) 课程(course) 2015001 Zhangsan male 23 2015003 阅读全文
摘要:
爬虫大作业 1.选一个自己感兴趣的主题。 2.用python 编写爬虫程序,从网络上爬取相关主题的数据。 3.对爬了的数据进行文本分析,生成词云。 4.对文本分析结果进行解释说明。 5.写一篇完整的博客,描述上述实现过程、遇到的问题及解决办法、数据分析思想及结论。 1.选一个自己感兴趣的主题。 2. 阅读全文
摘要:
编程实现以下指定功能,并利用Hadoop提供的Shell命令完成相同任务: 在本地Linux文件系统的“/home/hadoop/”目录下创建一个文件txt,里面可以随意输入一些单词. 在本地查看文件位置(ls) 在本地显示文件内容 使用命令把本地文件系统中的“txt”上传到HDFS中的当前用户目录 阅读全文
摘要:
1. 将新闻的正文内容保存到文本文件。 2. 将新闻数据结构化为字典的列表: 单条新闻的详情-->字典news 一个列表页所有单条新闻汇总-->列表newsls.append(news) 所有列表页的所有新闻汇总列表newstotal.extend(newsls) 3. 安装pandas,用pand 阅读全文
摘要:
1.取出一个新闻列表页的全部新闻 包装成函数。 2.获取总的新闻篇数,算出新闻总页数。 3.获取全部新闻列表页的全部新闻详情。 截图: 4.找一个自己感兴趣的主题,进行数据爬取,并进行分词分析。 爬取的是起点小说网页一部小说目录的标题及相关信息。 截图: 解析排序后内容: 阅读全文
摘要:
1. 用requests库和BeautifulSoup库,爬取校园新闻首页新闻的标题、链接、正文、show-info。 截图: 2. 分析info字符串,获取每篇新闻的发布时间,作者,来源,摄影等信息。 截图: 1. 用requests库和BeautifulSoup库,爬取校园新闻首页新闻的标题、链 阅读全文
摘要:
0.可以新建一个用于练习的html文件,在浏览器中打开。 上课时老师所给的html文件,便于数据爬虫。 <!DOCTYPE html> <html lang="en"> <head> <meta charset="UTF-8"> <title>GZCC新闻网</title> </head> <bod 阅读全文