在做统计计算的时候,根据条件将不同数据分组存放,可以方便后续取数、分析。 Flink中有分流算子,可以将这一批处理后的数据,分成不同的流数据,Spark虽然没有这种算子,但是有类似的操作。 根据key值,将数据写到不同目录下 import org.apache.hadoop.mapred.lib.M Read More
posted @ 2025-06-27 15:52 MrSponge Views(12) Comments(0) Diggs(0)