2019年6月13日
摘要: 1.安装并配置zk 2.安装并配置Kafka 3.启动zk 4.启动Kafka 5.创建topic 程序代码 记一次遇到的问题 https://www.cnblogs.com/feifeicui/p/11018761.html 阅读全文
posted @ 2019-06-13 19:03 o_0的园子 阅读(525) 评论(0) 推荐(0) 编辑
摘要: 设置回滚点在本地运行时正常,在集群时就报错,后来是发现ceshi这个目录其他用户没有写的权限,修改其他用户的权限就好了 阅读全文
posted @ 2019-06-13 19:00 o_0的园子 阅读(1325) 评论(0) 推荐(0) 编辑
摘要: 假定用户有某个周末网民网购停留时间的日志文本,基于某些业务要求,要求开发 Spark应用程序实现如下功能: 1、实时统计连续网购时间超过半个小时的女性网民信息。 2、周末两天的日志文件第一列为姓名,第二列为性别,第三列为本次停留时间,单 位为分钟,分隔符为“,”。 数据: log1.txt:周六网民 阅读全文
posted @ 2019-06-13 16:44 o_0的园子 阅读(781) 评论(0) 推荐(0) 编辑
摘要: 官网http://spark.apache.org/docs/latest/streaming-programming-guide.html 1.1. 用Spark Streaming实现实时WordCount 1.安装并启动生成者 首先在一台Linux(ip:192.168.10.101)上用YU 阅读全文
posted @ 2019-06-13 16:34 o_0的园子 阅读(499) 评论(0) 推荐(0) 编辑
摘要: 1. 安装mysql 2. 上传、解压、重命名 2.1. 上传 在随便一台有hadoop环境的机器上上传安装文件 su - hadoop rz –y 2.2. 解压 解压缩:apache-hive-1.0.1-bin.tar.gz tar -zxvf apache-hive-1.0.1-bin.ta 阅读全文
posted @ 2019-06-13 14:05 o_0的园子 阅读(541) 评论(0) 推荐(0) 编辑
摘要: 1上传jar 2 加载驱动包 3 4 读取数据(注意mysql要启动) 5 往mysql数据库写数据 阅读全文
posted @ 2019-06-13 00:04 o_0的园子 阅读(448) 评论(0) 推荐(0) 编辑