1. 为什么用 DataStream 做 ETL?

ETL 的本质:从多源抽取 → 转换/富化 → 入库/下发
在 Flink 里你有两条主路:

  • Table/SQL API:声明式、上手快、适合标准 ETL 场景;
  • DataStream API灵活可编程、对自定义序列化/复杂业务逻辑/低延迟控制更友好。

建议:以 SQL 为主,遇到复杂逻辑/时序/状态机型问题切到 DataStream。理解 DataStream 的底层模型,会让你在 SQL 瓶颈时有“降级控制”的抓手。

2. 可流式的数据与序列化选型

  • Flink 原生序列化支持:基础类型(String/Long/…)、TuplesTuple0~Tuple25)、POJOs(满足 public 类、无参构造、字段可见或有 getter/setter)。
  • 其他类型回退 Kryo;也可使用 Avro(强 schema、跨语言好)。
  • 建议:业务事件→POJO/Avro;原型/临时脚本→Tuple 均可。

Tuple 示例:

Tuple2<String, Integer> person = Tuple2.of("Fred", 35);
  String name = person.f0; // 下标从0开始
  Integer age  = person.f1;

POJO 示例(支持 schema 演进):

public class Person {
public String name;
public Integer age;
public Person() {}
public Person(String name, Integer age) { this.name = name; this.age = age; }
}

3. 无状态转换:map / flatMap 富化与拆分

场景:把出租车行程(TaxiRide)按经纬度映射到 ~100×100m 网格,补充 startCell/endCell 字段。

public static class EnrichedRide extends TaxiRide {
public int startCell, endCell;
public EnrichedRide() {}
public EnrichedRide(TaxiRide r) {
this.rideId = r.rideId; this.isStart = r.isStart; /*...*/
this.startCell = GeoUtils.mapToGridCell(r.startLon, r.startLat);
this.endCell   = GeoUtils.mapToGridCell(r.endLon,   r.endLat);
}
}
DataStream<TaxiRide> rides = env.addSource(new TaxiRideSource(...));
  // 1→1 用 map
  DataStream<EnrichedRide> enriched = rides
    .filter(new RideCleansingSolution.NYCFilter())
    .map((MapFunction<TaxiRide, EnrichedRide>) EnrichedRide::new);
      // 1→N 或 0→1 用 flatMap(可发零个或多个)
      DataStream<EnrichedRide> enriched2 = rides.flatMap((ride, out) -> {
        if (new RideCleansing.NYCFilter().filter(ride)) out.collect(new EnrichedRide(ride));
        });

要点

  • map():严格一进一出。
  • flatMap():更自由,配合 Collector 发 0…N 个记录,更适合“过滤 + 拆分”。

4. Keyed Streams:按键分区与聚合

把相同 key 的事件路由到同一并行子任务,才能维护独立状态或做分组聚合。

enriched.keyBy(r -> r.startCell);

⚠️ 代价:每次 keyBy 都会触发 网络 shuffle(序列化+网络+反序列化)。
建议:合并相邻的算子链、减少不必要的重分区。

按键聚合示例:求每个起点单元的“最长行程(分钟)”

DataStream<Tuple2<Integer, Minutes>> minutesByStartCell = enriched.flatMap((ride, out) -> {
  if (!ride.isStart) {
  Minutes dur = new Interval(ride.startTime, ride.endTime).toDuration().toStandardMinutes();
  out.collect(Tuple2.of(ride.startCell, dur));
  }
  });
  minutesByStartCell
  .keyBy(v -> v.f0) // startCell
  .maxBy(1)         // 对 duration 取最大
  .print();

隐式状态maxBy 背后,Flink 为每个 key维护“当前最大值”。
风险无界 key 数 → 状态无界膨胀。
建议:在窗口内聚合(滚动/滑动/会话窗口),或引入TTL/清理策略

5. 有状态转换:让 Flink 管理状态(ValueState)

为什么交给 Flink:

  • 本地访问(内存级速度)、自动 Checkpoint(容错)、RocksDB 托底(磁盘扩容)、横向扩展(重分布)。

去重示例:只保留每个 key 的第一条

public static class Deduplicator extends RichFlatMapFunction<Event, Event> {
  private ValueState<Boolean> seen;
    @Override public void open(OpenContext ctx) {
    seen = getRuntimeContext().getState(new ValueStateDescriptor<>("seen", Types.BOOLEAN));
      }
      @Override public void flatMap(Event e, Collector<Event> out) throws Exception {
        if (seen.value() == null) { // 首次出现
        out.collect(e);
        seen.update(true);
        }
        }
        }

看到一个 ValueState<Boolean>,实际是分布式分片的键值存储:每个并行实例只持有自己 key 分片的那部分。

状态生命周期与清理

  • 显式清理seen.clear()(如 key 长期不活跃后)
  • 状态 TTL:在 StateDescriptor 上配置,自动过期
  • 复杂时序清理:结合 ProcessFunction + Timers(定时器回调里清状态)

6. Connected Streams:用“控制流”动态改变业务逻辑

典型用法:在线下发规则/阈值/黑白名单,实时影响主数据流的处理。

DataStream<String> control = env.fromData("DROP", "IGNORE").keyBy(x -> x);
  DataStream<String> words   = env.fromData("Apache", "DROP", "Flink", "IGNORE").keyBy(x -> x);
    control.connect(words).flatMap(new ControlFunction()).print();
    public static class ControlFunction extends RichCoFlatMapFunction<String, String, String> {
      private ValueState<Boolean> blocked;
        @Override public void open(OpenContext ctx) {
        blocked = getRuntimeContext().getState(new ValueStateDescriptor<>("blocked", Boolean.class));
          }
          @Override public void flatMap1(String ctrl, Collector<String> out) { blocked.update(true); }
            @Override public void flatMap2(String word, Collector<String> out) throws Exception {
              if (blocked.value() == null) out.collect(word);
              }
              }

关键

  • 两条流必须以一致的方式 keyBy,状态才可共享;
  • 回调顺序不可控flatMap1/2 谁先来由运行时决定),时序敏感就缓冲并自定调度

7. 性能与工程化要点

序列化

  • 优先 POJO/Avro;避免不稳定类型(随机、数组、枚举等)作为 key;
  • 自定义类型须保证确定性hashCode/equals

重分区

  • 合理安排 keyBy,避免链路中多次无谓 shuffle;
  • 利用 算子链并行度 调优吞吐。

状态

  • 预估 key 基数与状态大小;无界场景使用 TTL/窗口/清理
  • 大状态选 RocksDBStateBackend,权衡延迟与容量;
  • 配置 Checkpoint(间隔/最小暂停/超时)与 外部化(HDFS/S3)。

一致性

  • 端到端语义(at-least once/exactly once)取决于 source/sink 是否支持 2PC、幂等写等。

可观测性

  • 关注反压、吞吐、延迟、状态大小、GC、checkpoint 时间;
  • Web UI + 指标上报(Prometheus)+ 日志(JM/TM)。

8. 本地开发与调试

  • IDE 断点:DataStream 支持本地调试,能 step into Flink 了解内部。
  • 日志定位:JM/TM 日志、print() 输出前缀(1> / 2> 表示子任务)。
  • 依赖打包:集群运行确保所有依赖在各节点可用(推荐 fat-jar/shade)。

9. 一个最小可运行的流式 ETL 骨架

需求:从 Source 读取行程 → NYC 清洗 → 富化网格 → 计算每个起点网格的最长行程 → 打印结果。

public class NycRideEtlJob {
public static void main(String[] args) throws Exception {
StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
DataStream<TaxiRide> rides = env.addSource(new TaxiRideSource(/* cfg */));
  DataStream<EnrichedRide> enriched = rides
    .flatMap(new NYCEnrichment()); // 过滤+富化
    DataStream<Tuple2<Integer, Integer>> longestByCell = enriched
      .flatMap((FlatMapFunction<EnrichedRide, Tuple2<Integer, Integer>>) (ride, out) -> {
        if (!ride.isStart) {
        int minutes = (int)((ride.endTime.getMillis() - ride.startTime.getMillis()) / 60000L);
        out.collect(Tuple2.of(ride.startCell, minutes));
        }
        })
        .keyBy(v -> v.f0) // startCell
        .maxBy(1);        // minutes
        longestByCell.print();
        env.execute("NYC Ride ETL");
        }
        }

上线前检查:checkpoint、重启策略、并行度、背压、告警通道、sink 幂等等。

10. 进一步学习与练习

  • Hands-on:Rides & Fares、Ride Cleansing
  • 专题:Stateful Stream Processing、DataStream Transformations
  • 高级:ProcessFunction + Timers、Window/Watermark(事件时间)、ConnectedStreams 做流 join/规则推送、Async I/O 做维表富化
posted on 2025-10-01 11:40  ycfenxi  阅读(6)  评论(0)    收藏  举报