摘要: 1.用Hive对爬虫大作业产生的文本文件(或者英文词频统计下载的英文长篇小说)进行词频统计 创建文件夹: 查看hdfs的所有文件: 把文件上传到hdfs: 启动hive: 创建表: 把hdsf上的文件内容添加进去表里: 创建一个新的表存放词频统计: 查找表的前十条记录: 2.用Hive对爬虫大作业产 阅读全文
posted @ 2018-05-24 17:10 226李汉昊 阅读(106) 评论(0) 推荐(0) 编辑
摘要: 启动hadoop Hdfs上创建文件夹 创建的文件夹是datainput 上传文件至hdfs 启动Hive 创建原始文档表 导入文件内容到表docs并查看 用HQL进行词频统计,结果放在表word_count里 查看统计结果 阅读全文
posted @ 2018-05-17 19:59 226李汉昊 阅读(102) 评论(0) 推荐(0) 编辑
摘要: 用Python编写WordCount程序任务 1.编写map函数,reduce函数 创建文件 编写函数 2.将其权限作出相应修改 3.本机上测试运行代码 4.放到HDFS上运行,下载并上传文件到hdfs上 5.用Hadoop Streaming命令提交任务 阅读全文
posted @ 2018-05-11 20:32 226李汉昊 阅读(86) 评论(0) 推荐(0) 编辑
摘要: 1. 以下关系型数据库中的表和数据,要求将其转换为适合于HBase存储的表并插入数据: 学生表(Student)(不包括最后一列) 2. 用Hadoop提供的HBase Shell命令完成相同任务: 列出HBase所有的表的相关信息;list 在终端打印出学生表的所有记录数据 向学生表添加课程列族; 阅读全文
posted @ 2018-05-09 22:18 226李汉昊 阅读(99) 评论(0) 推荐(0) 编辑
摘要: 我选择的是爬取慕课网的关于java的课程,网址为https://www.imooc.com/search/course?words=java; 慕课网上关于java的课程总共有三页: 通过这一方法获取每一页的网址跟页码,并将它们传给我自己定义的gettitle函数。 使用浏览器自带的检查功能打开网页 阅读全文
posted @ 2018-04-28 23:05 226李汉昊 阅读(473) 评论(0) 推荐(0) 编辑
摘要: 一、Hadoop提供的Shell命令完成相同任务: 一、Hadoop提供的Shell命令完成相同任务: 在本地Linux文件系统的“/home/hadoop/”目录下创建一个文件txt,里面可以随意输入一些单词. 在本地查看文件位置(ls) 在本地显示文件内容 cd /home/hadoop/ to 阅读全文
posted @ 2018-04-27 14:37 226李汉昊 阅读(779) 评论(0) 推荐(0) 编辑
摘要: 1. 将新闻的正文内容保存到文本文件。 2. 将新闻数据结构化为字典的列表: 单条新闻的详情-->字典news 一个列表页所有单条新闻汇总-->列表newsls.append(news) 所有列表页的所有新闻汇总列表newstotal.extend(newsls) def getNewsDetail 阅读全文
posted @ 2018-04-18 21:21 226李汉昊 阅读(392) 评论(0) 推荐(0) 编辑
摘要: 1. 用正则表达式判定邮箱是否输入正确。 2 .用正则表达式识别出全部电话号码。 3. 用正则表达式进行英文分词。re.split('',news) 4. 使用正则表达式取得新闻编号 5. 生成点击次数的Request URL 6. 获取点击次数 7. 将456步骤定义成一个函数 def getCl 阅读全文
posted @ 2018-04-11 21:21 226李汉昊 阅读(141) 评论(0) 推荐(0) 编辑
摘要: 1. 用requests库和BeautifulSoup库,爬取校园新闻首页新闻的标题、链接、正文。 2. 分析字符串,获取每篇新闻的发布时间,作者,来源,摄影等信息 3.将其中的发布时间由str转换成datetime类型 4. 将完整的代码及运行结果截图发布在作业上。 阅读全文
posted @ 2018-04-03 17:31 226李汉昊 阅读(147) 评论(0) 推荐(0) 编辑
摘要: 取出h1标签的文本 取出a标签的链接 取出所有li标签的所有内容 取出一条新闻的标题、链接、发布时间、来源 阅读全文
posted @ 2018-03-29 20:51 226李汉昊 阅读(147) 评论(0) 推荐(0) 编辑