java 实现 flink 读 kafka 写 delta - 指南
一.背景
在企业数字化转型向深度渗透的过程中,数据已成为核心生产要素,业务对数据处理的诉求逐渐升级为 “实时采集 - 统一计算 - 长期治理 - 全场景复用” 的全链路能力。日志流、交易流水、用户行为、物联网传感等实时数据持续爆发,这类数据既需要低延迟处理以支撑即时决策(如实时监控、动态营销),又需要长期可靠存储以满足离线分析、数据回溯、合规审计、模型训练等场景,传统数据架构的 “实时与离线割裂、存储治理薄弱、数据价值沉淀不足” 等痛点日益凸显。
传统架构中,Kafka 作为消息队列的核心选型,凭借高吞吐、低延迟的特性成为实时数据传输的 “枢纽”,但仅适用于流式数据的短期暂存与分发,缺乏复杂查询、数据更新、版本管理等能力,无法承载数据长期复用需求;而传统数据仓库(如 Hive)虽能支撑离线分析,却存在实时写入延迟高、Schema 灵活度低、不支持事务等问题,难以适配半结构化 / 非结构化数据的存储诉求,导致 “实时处理结果难以高效沉淀,离线分析无法快速复用实时数据” 的割裂困境。同时,数据量的爆发式增长还对存储的成本控制、可扩展性、数据一致性及治理效率提出了更高要求,传统存储方案难以兼顾多维度诉求。
在此背景下,“Kafka + Flink + Delta” 的协同架构成为破解上述痛点的最优解之一,各组件形成互补、各司其职,构建起全链路数据处理能力:
- Kafka 作为实时数据接入核心:依托高吞吐、低延迟、高容错的核心优势,稳定承接多源实时数据流(日志、交易、传感等)的写入与分发,为后续计算环节提供持续、稳定的数据输入,是实时数据链路的 “源头枢纽”;
- Flink 作为流批一体计算引擎:具备强大的实时数据处理能力,支持 Exactly-Once 语义、复杂事件处理(CEP)、状态管理等核心特性,可高效消费 Kafka 中的实时数据流,完成数据清洗、转换、聚合、关联等计算逻辑,同时兼顾批处理场景,是连接 “实时数据源头” 与 “长期存储终端” 的核心计算桥梁;
- Delta 作为湖仓一体存储方案:基于 Apache Spark 生态发展而来,以 ACID 事务为核心优势,兼具数据湖的灵活性与数据仓库的可靠性 —— 支持实时增量写入、批量读取、数据版本控制、时间旅行(数据回溯)、Schema 演进、数据压缩与分区优化等核心能力,能够高效承接 Flink 处理后的实时数据,既满足低延迟的实时查询需求,又支持离线分析、数据归档、合规审计等场景,同时解决了传统数据湖 “数据混乱、查询低效、治理困难” 的痛点,实现数据的长期可管、可控、可复用。
Java 作为 Flink、Kafka、Delta 生态的核心开发语言,具备完善的 API 支持、成熟的企业级实践、丰富的生态工具链,能够确保架构的稳定性、可扩展性与可维护性。因此,采用 Java 实现 “Flink 读 Kafka 写 Delta” 的方案,本质是构建一套 “实时接入 - 流批一体计算 - 湖仓化存储” 的端到端数据处理闭环。该方案可广泛应用于实时数据仓库构建、用户行为全链路分析、金融交易实时归档与回溯、物联网数据实时处理与长期存储等业务场景,帮助企业打通实时与离线数据壁垒,实现数据价值的高效沉淀与灵活复用,同时降低数据存储与治理成本,为数据驱动决策提供坚实支撑。
二.具体实现
1.创建java工程,引入依赖
org.apache.flink
flink-java
1.18.1
org.apache.flink
flink-streaming-java
1.18.1
org.apache.flink
flink-clients
1.18.1
org.apache.flink
flink-connector-kafka
3.0.2-1.18
org.apache.flink
flink-table-common
1.18.1
org.apache.flink
flink-orc
1.18.1
org.apache.hadoop
hadoop-client
3.3.2
io.delta
delta-flink
3.2.0
io.delta
delta-core_2.12
2.4.0
2.定义kafka数据源反序列化类
public class DataSchemaDeserialization implements KafkaDeserializationSchema> {
@Override
public boolean isEndOfStream(ConsumerRecord nextElement) {
return false;
}
@Override
public ConsumerRecord deserialize(ConsumerRecord record) throws Exception {
return new ConsumerRecord(
record.topic(),
record.partition(),
record.offset(),
record.timestamp(),
record.timestampType(),
record.serializedKeySize(),
record.serializedValueSize(),
record.key() != null ? new String(record.key()) : null,
record.value() != null ? new String(record.value(), StandardCharsets.UTF_8) : null,
record.headers(),
record.leaderEpoch()
);
}
@Override
public TypeInformation> getProducedType() {
return TypeInformation.of(new TypeHint>() {
});
}
}
3.定义kafka数据源(json格式)
Properties props = new Properties();
props.put(CommonClientConfigs.BOOTSTRAP_SERVERS_CONFIG,kafka地址);
props.put(CommonClientConfigs.GROUP_ID_CONFIG,消费组);
props.put(ENABLE_IDEMPOTENCE_CONFIG, "true");
FlinkKafkaConsumerBase flinkKafkaConsumer = new FlinkKafkaConsumer<>(kafka topic, new DataSchemaDeserialization(), props).setStartFromGroupOffsets();
4.转换数据流为RowData格式
DataStream data = env.addSource(flinkKafkaConsumer).map(new MapFunction() {
@Override
public RowData map(ConsumerRecord value) throws Exception {
GenericRowData row = new GenericRowData(10);
... ...
return row;
}
});
5.定义写入配置
Configuration configuration = new Configuration();
configuration.set("spark.delta.logStore.s3a.impl", "io.delta.storage.S3DynamoDBLogStore");
String[] partitionCols = {"a"}
DeltaSink deltaSink = DeltaSink
.forRowData(
new Path(hti.getLocation()),
configuration,
rowTypeInfo)
.withPartitionColumns(partitionCols)
.build();
data.sinkTo(deltaSink);
浙公网安备 33010602011771号