SparkStreaming/Flink读取Kafka的数据
摘要:
spark读取kafka的数据 前期准备:创建一个config.properties 插入: kafka.broker.list=hadoop102:9092,hadoop103:9092,hadoop104:9092 //新建一个kafka的工具类 object MyKafkaUtil { pri 阅读全文
posted @ 2019-06-12 10:48 AaCan 阅读(363) 评论(0) 推荐(0)
浙公网安备 33010602011771号