2018年5月25日
摘要: 一、用Hive对爬虫大作业产生的文本文件词频统计。 1.启动hadoop 2.Hdfs上创建文件夹并查看 3.上传英文词频统计文本至hdfs 4.启动Hive 5.导入文件内容到表docs并查看 6.进行词频统计,结果放在表t_word_count里 7.查看统计结果 二、用Hive对爬虫大作业产生 阅读全文
posted @ 2018-05-25 19:27 185程嘉明 阅读(123) 评论(0) 推荐(0) 编辑
摘要: 一、用Hive对爬虫大作业产生的文本文件词频统计。 1.启动hadoop 2.Hdfs上创建文件夹并查看 3.上传英文词频统计文本至hdfs 4.启动Hive 5.导入文件内容到表docs并查看 6.进行词频统计,结果放在表t_word_count里 7.查看统计结果 二、用Hive对爬虫大作业产生 阅读全文
posted @ 2018-05-25 15:32 185程嘉明 阅读(77) 评论(0) 推荐(0) 编辑
  2018年5月23日
摘要: import requests import re import jieba from bs4 import BeautifulSoup from datetime import datetime def getNewsDetail(newsUrl): resd = requests.get(newsUrl) resd.encoding = 'gb2312' soup... 阅读全文
posted @ 2018-05-23 15:07 185程嘉明 阅读(81) 评论(0) 推荐(0) 编辑
  2018年5月16日
摘要: 通过hadoop上的hive完成WordCount 启动hadoop Hdfs上创建文件夹 上传文件至hdfs 启动Hive 创建原始文档表 导入文件内容到表docs并查看 1 2 load data inpath '/user/hadoop/tese1/try.txt' overwrite int 阅读全文
posted @ 2018-05-16 21:59 185程嘉明 阅读(82) 评论(0) 推荐(0) 编辑
  2018年5月9日
摘要: 编写程序求每日最高最低气温,区间最高最低气温 授予权限 阅读全文
posted @ 2018-05-09 21:05 185程嘉明 阅读(86) 评论(0) 推荐(0) 编辑
  2018年5月8日
摘要: 1. 以下关系型数据库中的表和数据,要求将其转换为适合于HBase存储的表并插入数据: 学生表(Student)(不包括最后一列) 学号(S_No) 姓名(S_Name) 性别(S_Sex) 年龄(S_Age) 课程(course) 2015001 Zhangsan male 23 2015003 阅读全文
posted @ 2018-05-08 20:53 185程嘉明 阅读(78) 评论(0) 推荐(0) 编辑
  2018年4月30日
摘要: 将高频词汇放入test.txt以后打开 http://www.picdata.cn/ 用网上词云生成图片 阅读全文
posted @ 2018-04-30 19:20 185程嘉明 阅读(114) 评论(0) 推荐(0) 编辑
  2018年4月12日
摘要: 1. 将新闻的正文内容保存到文本文件。 2. 将新闻数据结构化为字典的列表: 3. 安装pandas,用pandas.DataFrame(newstotal),创建一个DataFrame对象df. 4. 通过df将提取的数据保存到csv或excel 文件。 5. 用pandas提供的函数和方法进行数 阅读全文
posted @ 2018-04-12 20:48 185程嘉明 阅读(106) 评论(0) 推荐(0) 编辑
  2018年4月9日
摘要: import requests from bs4 import BeautifulSoup from datetime import datetime import re res = requests.get('http://news.gzcc.cn/html/xiaoyuanxinwen/') res.encoding = 'utf-8' soup = BeautifulSoup(res.te... 阅读全文
posted @ 2018-04-09 20:26 185程嘉明 阅读(82) 评论(0) 推荐(0) 编辑
  2018年3月29日
摘要: import requests from bs4 import BeautifulSoup res = requests.get('https://weibo.com/') res.encoding = 'UTF-8' soup = BeautifulSoup(res.text, 'html.parser') # 取出h1标签的文本 for h1 in soup.find_all('h1'):... 阅读全文
posted @ 2018-03-29 20:55 185程嘉明 阅读(102) 评论(0) 推荐(0) 编辑