上一页 1 ··· 11 12 13 14 15 16 17 18 19 ··· 23 下一页
摘要: Flume架构介绍和安装 写在前面在学习一门新的技术之前,我们得知道了解这个东西有什么用?我们可以使用它来做些什么呢?简单来说,flume是大数据日志分析中不能缺少的一个组件,既可以使用在流处理中,也可以使用在数据的批处理中。1.流处理:2.离线批处理:分析:不管你是数据的实时流处理,还是数据的离线 阅读全文
posted @ 2019-12-24 20:45 Xiaohu_BigData 阅读(325) 评论(0) 推荐(0)
摘要: cd /optvi test.sh #!/bin/bash datetime=(date′+source/etc/profilehive−e"loaddatalocalinpath′/opt/datame.txt′intotableshujuku.tablenamepartition(dt 阅读全文
posted @ 2019-12-24 14:03 Xiaohu_BigData 阅读(603) 评论(0) 推荐(0)
摘要: hive脚本的执行方式 hive脚本的执行方式大致有三种: hive控制台执行; hive -e "SQL"执行; hive -f SQL文件执行;参考hive用法: usage: hive -d,--define <key=value> Variable subsitution to apply 阅读全文
posted @ 2019-12-23 22:50 Xiaohu_BigData 阅读(1453) 评论(0) 推荐(0)
摘要: 当我们进入企业就会发现,很多时候,企业的数据都是加密的,我们拿到的数据没办法使用Hive自带的函数去解决,我们就需要自己去定义函数去查看,哈哈,然而企业一般不会将解密的代码给你的,只需要会用,但是我们也需要知道怎么去实现。 1、打开编译器,我使用的myEclipse, 在maven项目中添加依赖 < 阅读全文
posted @ 2019-12-23 22:01 Xiaohu_BigData 阅读(581) 评论(0) 推荐(0)
摘要: 数据准备: 7369,SMITH,CLERK,7902,1980-12-17,800,null,20 7499,ALLEN,SALESMAN,7698,1981-02-20,1600,300,30 7521,WARD,SALESMAN,7698,1981-02-22,1250,500,30 7566 阅读全文
posted @ 2019-12-23 20:54 Xiaohu_BigData 阅读(565) 评论(0) 推荐(0)
摘要: Hive实现按照指定格式输出每七天的消费平均数 数据准备 2018/6/1,10 2018/6/2,11 2018/6/3,11 2018/6/4,12 2018/6/5,14 2018/6/6,15 2018/6/7,13 2018/6/8,37 2018/6/9,18 2018/6/10,19 阅读全文
posted @ 2019-12-23 20:15 Xiaohu_BigData 阅读(1821) 评论(1) 推荐(2)
摘要: Hive实现WordCount计数 在没学习Hive之前,我们学习MapReduce去实现WordCount计数的时候,就要去编写80多行的java代码,现在我们学习了Hive,我们只需要一行Sql语句就可以实现。 准备数据 在hive中创建表 使用本地导入的命令进行导入数据 select 查看一下 阅读全文
posted @ 2019-12-23 19:44 Xiaohu_BigData 阅读(488) 评论(0) 推荐(0)
摘要: 执行效果: 1. count(1) and count(*) 当表的数据量大些时,对表作分析之后,使用count(1)还要比使用count(*)用时多了! 从执行计划来看,count(1)和count(*)的效果是一样的。 但是在表做过分析之后,count(1)会比count(*)的用时少些(1w以 阅读全文
posted @ 2019-12-22 22:40 Xiaohu_BigData 阅读(6365) 评论(0) 推荐(0)
摘要: 在Sqoop导入或者导出,我们在查看mysql的时候会出现中文乱码大部分乱码会是?这样的问号,那么该怎么处理呢? 1、打开my.cnf文件 vim /etc/my.cnf 2、找到对应需要修改的地方 共3个地方,[client] [mysqld] [mysql]找到对应的位置,加入以下配置[mysq 阅读全文
posted @ 2019-12-22 19:35 Xiaohu_BigData 阅读(241) 评论(0) 推荐(0)
摘要: Hive架构流程(十分重要,结合图进行记忆理解)当客户端提交请求,它先提交到Driver,Driver拿到这个请求后,先把表明,字段名拿出来,去数据库进行元数据验证,也就是Metasore,如果有,返回有,Driver再返回给Complier编译器,进行HQL解析到MR任务的转化过程,执行完之后提交 阅读全文
posted @ 2019-12-22 19:26 Xiaohu_BigData 阅读(505) 评论(0) 推荐(0)
上一页 1 ··· 11 12 13 14 15 16 17 18 19 ··· 23 下一页