摘要: 1.用Hive对爬虫大作业产生的文本文件(或者英文词频统计下载的英文长篇小说)进行词频统计。 创建文件夹(yxb) 将txt从本地弄到hadoop中 创建一张表(spring) 将springtxt里面的数据写入spring表 显示出词频统计 2.用Hive对爬虫大作业产生的csv文件进行数据分析, 阅读全文
posted @ 2018-05-25 20:15 108-杨晓彬 阅读(128) 评论(0) 推荐(0) 编辑
摘要: 1. 用Python编写WordCount程序并提交任务 程序 WordCount 输入 一个包含大量单词的文本文件 输出 文件中每个单词及其出现次数(频数),并按照单词字母顺序排序,每个单词和其频数占一行,单词和频数之间有间隔 2. 用mapreduce 处理气象数据集 编写程序求每日最高最低气温 阅读全文
posted @ 2018-05-10 21:38 108-杨晓彬 阅读(146) 评论(0) 推荐(0) 编辑
摘要: 1. 以下关系型数据库中的表和数据,要求将其转换为适合于HBase存储的表并插入数据: 学生表(Student)(不包括最后一列) 学号(S_No) 姓名(S_Name) 性别(S_Sex) 年龄(S_Age) 课程(course) 2015001 Zhangsan male 23 2015003 阅读全文
posted @ 2018-05-04 21:01 108-杨晓彬 阅读(150) 评论(0) 推荐(0) 编辑
摘要: 一、Hadoop提供的Shell命令完成相同任务: 1.在本地Linux文件系统的“/home/hadoop/”目录下创建一个文件txt,里面可以随意输入一些单词. 2.在本地查看文件位置(ls) 3.在本地显示文件内容 4.使用命令把本地文件系统中的“txt”上传到HDFS中的当前用户目录的inp 阅读全文
posted @ 2018-04-27 13:34 108-杨晓彬 阅读(253) 评论(0) 推荐(0) 编辑
摘要: 1.选一个自己感兴趣的主题或网站。(所有同学不能雷同) 2.用python 编写爬虫程序,从网络上爬取相关主题的数据。 3.对爬了的数据进行文本分析,生成词云。 4.对文本分析结果进行解释说明。 通过使用第三方的jieba库进行中文分词,其中有过多新闻正文内容包含视频链接,所以通过设计了停用词,去掉 阅读全文
posted @ 2018-04-22 22:45 108-杨晓彬 阅读(200) 评论(0) 推荐(0) 编辑
摘要: 1. 将新闻的正文内容保存到文本文件。 2. 将新闻数据结构化为字典的列表: 单条新闻的详情-->字典news 一个列表页所有单条新闻汇总-->列表newsls.append(news) 所有列表页的所有新闻汇总列表newstotal.extend(newsls) 3. 安装pandas,用pand 阅读全文
posted @ 2018-04-17 20:40 108-杨晓彬 阅读(155) 评论(0) 推荐(0) 编辑
摘要: 1. 用正则表达式判定邮箱是否输入正确。 2. 用正则表达式识别出全部电话号码。 3. 用正则表达式进行英文分词。re.split('',news) 4. 使用正则表达式取得新闻编号 5. 生成点击次数的Request URL 6. 获取点击次数 7. 将456步骤定义成一个函数 def getCl 阅读全文
posted @ 2018-04-11 12:08 108-杨晓彬 阅读(137) 评论(0) 推荐(0) 编辑
摘要: 1. 用requests库和BeautifulSoup库,爬取校园新闻首页新闻的标题、链接、正文。 2. 分析字符串,获取每篇新闻的发布时间,作者,来源,摄影等信息。 3. 将其中的发布时间由str转换成datetime类型。 阅读全文
posted @ 2018-04-02 11:35 108-杨晓彬 阅读(148) 评论(0) 推荐(0) 编辑
摘要: 取出h1标签的文本 取出a标签的链接 取出所有li标签的所有内容 取出一条新闻的标题、链接、发布时间、来源 阅读全文
posted @ 2018-03-29 11:41 108-杨晓彬 阅读(102) 评论(0) 推荐(0) 编辑
摘要: fo= open('C:/Users/Administrator/PycharmProjects/bd/test.txt', 'r') str=fo.read() tep = ''',.?:'"''' exclude = {'the','and','of','to','in','a','he','f 阅读全文
posted @ 2018-03-26 11:03 108-杨晓彬 阅读(106) 评论(0) 推荐(0) 编辑