摘要: Spark-Streaming DirectKafka count 统计跟直接 kafka 统计类似,只不过这里使用的是 Direct 的方式,Direct方式使用的 kafka 低级API,不同的地方主要是在 createDirectStream这里。 统计代码如下 启动相关的 flume,kaf 阅读全文
posted @ 2019-07-28 19:04 听~雨 阅读(251) 评论(0) 推荐(0) 编辑
摘要: Streaming 统计来自 kafka 的数据,这里涉及到的比较,kafka 的数据是使用从 flume 获取到的,这里相当于一个小的案例。 1. 启动 kafka 2. 启动 flume flume 配置文件如下 这里 flume 是的数据是来自一个文件,只要这个文件有数据进入,就会被flume 阅读全文
posted @ 2019-07-28 19:00 听~雨 阅读(595) 评论(0) 推荐(0) 编辑
摘要: Streaming hdfs count 需要先启动 hadoop 集群。 hadoop 启动成功之后,下面就是关于 stream 的代码,stream 统计代码如下,将下面的代码进行打包,上传到服务器上即可。 代码需要传递两个参数,一个是 stream 监控的数据输入目录,一个是输出目录。对应的执 阅读全文
posted @ 2019-07-28 18:41 听~雨 阅读(408) 评论(0) 推荐(0) 编辑
摘要: Flume Kafka 测试案例,Flume 的配置。 1. 启动 kafka。 2. 创建 kafka topic,flume配置中的 topic 为 t1。 3. 启动 flume。 4. 启动 kafka 的消费者,来观察看是否成功。 5. 由于 flume 配置文件中监控的命令是 netca 阅读全文
posted @ 2019-07-28 18:20 听~雨 阅读(492) 评论(0) 推荐(0) 编辑