摘要:
1.mysql准备接受数据的数据库 2.hive准备待传输的数据 3.sqoop进行数据传输 4.mysql查看传输结果 阅读全文
摘要:
1.准备本地txt文件 2.启动hadoop,启动hive 3.创建数据库,创建文本表 4.映射本地文件的数据到文本表中 5.hql语句进行词频统计交将结果保存到结果表中。 6.查看统计结果 二、hive用HDFS上的文件进行词频统计 1.准备电子书或其它大的文本文件 2.将文本文件上传到HDFS上 阅读全文
摘要:
必做 1.词频统计 下载喜欢的电子书或大量文本数据,并保存在本地文本文件中 编写map与reduce函数 本地测试map与reduce 将文本数据上传至HDFS上 用hadoop streaming提交任务 查看运行结果 计算结果取回到本地 阅读全文
摘要:
本地文件系统创建一个文件,输入带姓名学号信息。 查看新建文件所在目录 查看新建文件内容 将此文件上传到HDFS文件系统上的用户目录 HDFS上查看相应目录 HDFS上查看文件内容 HDFS上查看文件大小 删除本地1步骤创建的文件 将HDFS上的文件下载到本地 查看本地文件目录 阅读全文
摘要:
**创建姓名缩写数据库,创建学生数据表,输入自己的学号姓名信息,截图上传作业 阅读全文
摘要:
1.了解微信、微博、小视频每天产生的数据量与数据类型 用户量:截止2020年1月,以国内移动互联网DAU计(不去重),腾讯系坐拥18.4亿用户,阿里系7.7亿用户,百度系5.9亿用户,头条系5.1亿用户,快手系2.3亿用户。 时长:截止2020年1月,以用户移动互联网月使用时长计,腾讯系676亿小时 阅读全文