摘要: 使用sqoop进行将Hive 词频统计的结果数据传输到Mysql中。 1.mysql准备接受数据的数据库与表 2.hive准备待传输的数据 2.1.测试数据 2.2.电子书 3.sqoop进行数据传输 3.1测试数据 3.2。电子书数据 4.mysql查看传输结果 4.1.测试数据 4.2.电子书数 阅读全文
posted @ 2020-12-12 11:19 小西西、 阅读(85) 评论(0) 推荐(0) 编辑
摘要: 一、hive用本地文件进行词频统计 1.准备本地txt文件 2.启动hadoop,启动hive 3.创建数据库,创建文本表 4.映射本地文件的数据到文本表中 5.hql语句进行词频统计交将结果保存到结果表中。 6.查看统计结果 二、hive用HDFS上的文件进行词频统计 1.准备电子书或其它大的文本 阅读全文
posted @ 2020-12-05 15:57 小西西、 阅读(50) 评论(0) 推荐(0) 编辑
摘要: 1.列出HBase所有的表的相关信息,例如表名; 2.在终端打印出指定的表的所有记录数据; 3.向已经创建好的表添加和删除指定的列族或列; 4.统计表的行数。 5.清空指定的表的所有记录数据; (2).关系型数据库中的表和数据(教材P92上),要求将其转换为适合于HBase存储的表并插入数据。 阅读全文
posted @ 2020-11-21 21:13 小西西、 阅读(113) 评论(0) 推荐(0) 编辑
摘要: 1.词频统计 编写map与reduce函数,将文本数据上传至HDFS上并用hadoop streaming提交任务 pg,txt上传到HDFS 计算结果取回到本地,查看取回文件前10行的数据 HDFS上成功运行,生成part-00000文件 2.气象数据分析-求每日最高温度 下载解压气象数据到qwd 阅读全文
posted @ 2020-11-12 21:04 小西西、 阅读(61) 评论(0) 推荐(0) 编辑
摘要: 1.本地文件系统创建一个文件,输入带姓名学号信息。 2.查看新建文件所在目录 3.查看新建文件内容 4.将此文件上传到HDFS文件系统上的用户目录 5.HDFS上查看相应目录 6.HDFS上查看文件内容 7.HDFS上查看文件大小 8.删除本地1步骤创建的文件 9.将HDFS上的文件下载到本地 10 阅读全文
posted @ 2020-10-24 14:42 小西西、 阅读(72) 评论(0) 推荐(0) 编辑
摘要: 1.用自己的图,描述HDFS体系结构、工作原理与流程。 阅读全文
posted @ 2020-10-19 21:50 小西西、 阅读(125) 评论(0) 推荐(0) 编辑
摘要: (1)上面完成了Linux系统的安装以后,如果读者是初次使用Linux系统,请熟悉一下Linux常用命令。 2. 在Ubuntu下安装MySQL及其常用操作 **创建姓名缩写数据库,创建学生数据表,输入自己的学号姓名信息,截图上传作业。 阅读全文
posted @ 2020-10-10 15:00 小西西、 阅读(71) 评论(0) 推荐(0) 编辑
摘要: 1.了解对比Hadoop不同版本的特性,可以用图表的形式呈现。 答: Hadoop1.0:高可靠性、高效性、高可扩展性、高容错性、成本低、运行在Linux平台、支持多种编程语言 Hadoop2.0新特性:1.提出HDFS Federation,它让多个NameNode分管不同的目录进而实现访问隔离和 阅读全文
posted @ 2020-09-18 19:47 小西西、 阅读(117) 评论(0) 推荐(0) 编辑
摘要: 1.了解微信、微博、小视频每天产生的数据量与数据类型。 答:2018微信数据报告:每天有450亿次信息发送 曹国伟:新浪微博每日产生1亿条内容 http://www.techweb.com.cn/internet/2012-01-06/1139327.shtml 微信微博的数据大部分是图片文字视频, 阅读全文
posted @ 2020-09-11 13:31 小西西、 阅读(116) 评论(0) 推荐(0) 编辑