摘要: adoop综合大作业 要求: 1.用Hive对爬虫大作业产生的文本文件(或者英文词频统计下载的英文长篇小说)进行词频统计。 通过WinSCP将文件放在虚拟机wc文件目录下 启动hadoop 上传文件至hdfs 启动Hive 导入文件内容到表note并查看 用HQL进行词频统计,结果放在表note_c 阅读全文
posted @ 2018-05-22 16:47 200张德标 阅读(99) 评论(0) 推荐(0) 编辑
摘要: 启动hadoop Hdfs上创建文件夹 上传文件至hdfs 启动Hive 创建原始文档表 导入文件内容到表docs并查看 用HQL进行词频统计,结果放在表word_count里 查看统计结果 启动hadoop Hdfs上创建文件夹 上传文件至hdfs 启动Hive 创建原始文档表 导入文件内容到表d 阅读全文
posted @ 2018-05-16 20:00 200张德标 阅读(77) 评论(0) 推荐(0) 编辑
摘要: 用Python编写WordCount程序任务 程序 WordCount 输入 一个包含大量单词的文本文件 输出 文件中每个单词及其出现次数(频数),并按照单词字母顺序排序,每个单词和其频数占一行,单词和频数之间有间隔 1、编写map函数,reduce函数 2、将其权限作出相应修改 3、本机上测试运行 阅读全文
posted @ 2018-05-10 13:26 200张德标 阅读(88) 评论(0) 推荐(0) 编辑
摘要: 1. 以下关系型数据库中的表和数据,要求将其转换为适合于HBase存储的表并插入数据: 2. 用Hadoop提供的HBase Shell命令完成相同任务: 列出HBase所有的表的相关信息;list 在终端打印出学生表的所有记录数据; 向学生表添加课程列族; 向课程列族添加数学列并登记成绩为85; 阅读全文
posted @ 2018-05-08 16:27 200张德标 阅读(68) 评论(0) 推荐(0) 编辑
摘要: 一、Hadoop提供的Shell命令完成相同任务: 在本地Linux文件系统的“/home/hadoop/”目录下创建一个文件txt,里面可以随意输入一些单词. 在本地查看文件位置(ls) 在本地显示文件内容 使用命令把本地文件系统中的“txt”上传到HDFS中的当前用户目录的input目录下。 查 阅读全文
posted @ 2018-04-26 18:05 200张德标 阅读(114) 评论(0) 推荐(0) 编辑
摘要: 爬取汽车之家网站信息: 1、主题:爬取汽车之家当中新闻的的内容,对内容中的词语进行分析,生成词云 网址:https://www.autohome.com.cn/news/?p=s#liststart 2、具体步骤实现 由于是一个函数所以需要适应所有的页面而不是只是适合一个页面,所以需要判断是否存在时 阅读全文
posted @ 2018-04-23 01:17 200张德标 阅读(245) 评论(0) 推荐(0) 编辑
摘要: 1. 将新闻的正文内容保存到文本文件。 2. 将新闻数据结构化为字典的列表: 单条新闻的详情-->字典news 一个列表页所有单条新闻汇总-->列表newsls.append(news) 所有列表页的所有新闻汇总列表newstotal.extend(newsls) 3. 安装pandas,用pand 阅读全文
posted @ 2018-04-17 21:02 200张德标 阅读(96) 评论(0) 推荐(0) 编辑
摘要: 学会使用正则表达式 1. 用正则表达式判定邮箱是否输入正确。 2. 用正则表达式识别出全部电话号码。 3. 用正则表达式进行英文分词。re.split('',news) 4. 使用正则表达式取得新闻编号 5. 生成点击次数的Request URL 6. 获取点击次数 7. 将456步骤定义成一个函数 阅读全文
posted @ 2018-04-10 21:45 200张德标 阅读(107) 评论(0) 推荐(0) 编辑
摘要: 1. 用requests库和BeautifulSoup库,爬取校园新闻首页新闻的标题、链接、正文。 2. 分析字符串,获取每篇新闻的发布时间,作者,来源,摄影等信息。 3. 将其中的发布时间由str转换成datetime类型。 4. 将完整的代码及运行结果截图发布在作业上。 阅读全文
posted @ 2018-04-03 22:15 200张德标 阅读(69) 评论(0) 推荐(0) 编辑
摘要: 0.可以新建一个用于练习的html文件,在浏览器中打开。 1.利用requests.get(url)获取网页页面的html文件 import requests newsurl='http://news.gzcc.cn/html/xiaoyuanxinwen/' res = requests.get( 阅读全文
posted @ 2018-03-29 19:01 200张德标 阅读(138) 评论(0) 推荐(0) 编辑