摘要: 场景: 在spark structured streaming读取kafka上的topic,然后将统计结果写入到hdfs,hdfs保存目录按照month,day,hour进行分区: 1)程序放到spark上使用yarn开始运行(yarn-client或yarn-cluster),可以正常sink结果 阅读全文
posted @ 2019-07-26 00:13 cctext 阅读(2082) 评论(3) 推荐(0)