摘要: 1. 阐述Hadoop生态系统中,HDFS, MapReduce, Yarn, Hbase及Spark的相互关系,为什么要引入Yarn和Spark。 HDFS是Hadoop体系中数据存储管理的基础,它是一个高度容错的系统,能检测和应对硬件故障,在低成本的通用硬件上运行。 HBase构建在HDFS之上 阅读全文
posted @ 2021-03-14 17:26 落幕无华 阅读(79) 评论(0) 推荐(0) 编辑
摘要: 网站用户行为分析 步骤 1.1 本地数据集上传到数据仓库Hive 数据集下载与查看 数据集预处理 把数据集导入HDFS中 在Hive上创建数据库 1.2 Hive数据分析 给出数据分析需求 用select语句实现数据分析 数据分析结果查看与保存 1.3 Hive、MySQL、HBase数据互导 操作 阅读全文
posted @ 2020-12-29 19:38 落幕无华 阅读(89) 评论(0) 推荐(0) 编辑
摘要: 使用sqoop进行将Hive 词频统计的结果数据传输到Mysql中。 mysql准备接受数据的数据库与表 hive准备待传输的数据 sqoop进行数据传输 mysql查看传输结果 二:电子书 mysql准备接受数据的数据库与表 2 hive准备待传输的数据 3:sqoop进行数据传输 4:mysql 阅读全文
posted @ 2020-12-12 19:48 落幕无华 阅读(40) 评论(0) 推荐(0) 编辑
摘要: 一、hive用本地文件进行词频统计 1.准备本地txt文件 2.启动hadoop,启动hive 3.创建数据库,创建文本表 4.映射本地文件的数据到文本表中 5.hql语句进行词频统计交将结果保存到结果表中。 6.查看统计结果 二、hive用HDFS上的文件进行词频统计 1.准备电子书或其它大的文本 阅读全文
posted @ 2020-12-06 12:50 落幕无华 阅读(55) 评论(0) 推荐(0) 编辑
摘要: 1.任务: 列出HBase所有的表的相关信息,例如表名 在终端打印出指定的表的所有记录数据; 向已经创建好的表添加和删除指定的列族或列 清空指定的表的所有记录数据 统计表的行数 2.关系型数据库中的表和数据(教材P92上),要求将其转换为适合于HBase存储的表并插入数据。 student表 课程表 阅读全文
posted @ 2020-11-22 14:50 落幕无华 阅读(80) 评论(0) 推荐(0) 编辑
摘要: 下载喜欢的电子书或大量文本数据,并保存在本地文本文件中 编写map与reduce函数 本地测试map与reduce 将文本数据上传至HDFS上 用hadoop streaming提交任务 查看运行结果 计算结果取回到本地 批量下载气象数据 解压数据集,并保存在本地文本文件中 编写map与reduce 阅读全文
posted @ 2020-11-10 20:47 落幕无华 阅读(76) 评论(0) 推荐(0) 编辑
摘要: 本地文件系统创建一个文件,输入带姓名学号信息。 查看新建文件所在目录 查看新建文件内容 将此文件上传到HDFS文件系统上的用户目录 HDFS上查看相应目录 HDFS上查看文件内容 HDFS上查看文件大小 删除本地1步骤创建的文件 将HDFS上的文件下载到本地 查看本地文件目录 阅读全文
posted @ 2020-10-23 21:07 落幕无华 阅读(86) 评论(0) 推荐(0) 编辑
摘要: Hadoop安装: HDFS体系结构: 阅读全文
posted @ 2020-10-19 18:01 落幕无华 阅读(73) 评论(0) 推荐(0) 编辑
摘要: 熟悉 Linux系统的使用: 在Ubuntu下安装MySQL及其常用操作: 阅读全文
posted @ 2020-10-10 19:01 落幕无华 阅读(83) 评论(0) 推荐(0) 编辑
摘要: Hadoop演进: 1.Hadoop最早起源于Nutch。Nutch的设计目标是构建一个大型的全网搜索引擎,包括网页抓取、索引、查询等功能,但随着抓取网页数量的增加,遇到了严重的可扩展性问题——如何解决数十亿网页的存储和索引问题。 2.2003年、2004年谷歌发表的两篇论文为该问题提供了可行的解决 阅读全文
posted @ 2020-09-18 10:50 落幕无华 阅读(272) 评论(0) 推荐(0) 编辑