SeaTunnel(2.3.12)的高级用法(四):多个source、多个sink
前置知识:seatunnel配置中有数据流(Data Flow)转的概念
见:https://www.cnblogs.com/kakarotto-chen/p/19487384
demo1:两个source汇聚到一个sink
-
关键配置:sink的:plugin_input = ["source_data1", "source_data2"]
-
对应模型
┌──────────┐
│ Source A │──┐
└──────────┘ │
├──▶ Sink
┌──────────┐ │
│ Source B │──┘
└──────────┘
- 执行语句
# ds-st-demo10-2-mysql2pgsql.conf
sh /data/tools/seatunnel/seatunnel-2.3.12/bin/seatunnel.sh --config /data/tools/seatunnel/myconf/ds-st-demo10-2-mysql2pgsql.conf -i -DJvmOption="-Xms2G -Xmx2G" -m local
- 建表
-- ds-st-demo10-2-mysql2pgsql.conf
CREATE TABLE "public"."t_8_100w_imp_st_ds_demo10" (
id BIGINT PRIMARY KEY,
user_name VARCHAR(2000),
sex VARCHAR(20),
decimal_f NUMERIC(32, 6),
phone_number VARCHAR(20),
age INT,
create_time TIMESTAMP,
description TEXT,
address VARCHAR(2000) DEFAULT '未知',
my_status INT
);
COMMENT ON COLUMN "public"."t_8_100w_imp_st_ds_demo10"."id" IS '主键';
COMMENT ON COLUMN "public"."t_8_100w_imp_st_ds_demo10"."user_name" IS '名字';
COMMENT ON COLUMN "public"."t_8_100w_imp_st_ds_demo10"."sex" IS '性别:男;女';
COMMENT ON COLUMN "public"."t_8_100w_imp_st_ds_demo10"."decimal_f" IS '大数字';
COMMENT ON COLUMN "public"."t_8_100w_imp_st_ds_demo10"."phone_number" IS '电话';
COMMENT ON COLUMN "public"."t_8_100w_imp_st_ds_demo10"."age" IS '字符串年龄转数字';
COMMENT ON COLUMN "public"."t_8_100w_imp_st_ds_demo10"."create_time" IS '新增时间';
COMMENT ON COLUMN "public"."t_8_100w_imp_st_ds_demo10"."description" IS '大文本';
COMMENT ON COLUMN "public"."t_8_100w_imp_st_ds_demo10"."address" IS '空地址转默认值:未知';
COMMENT ON COLUMN "public"."t_8_100w_imp_st_ds_demo10"."my_status" IS '状态';
- conf配置
env {
# 任务名字:业务中可以弄表id
job.name = "ds-st-demo10.conf"
# 最大批线程数:并行度(线程数)
parallelism = 5
# 任务模式:BATCH:批处理模式;STREAMING:流处理模式
job.mode = "BATCH"
}
source {
# 第一个数据集
jdbc {
# 给这个数据集起个名字
plugin_output = "source_data1"
url = "jdbc:mysql://ip:port/cs1"
driver = "com.mysql.cj.jdbc.Driver"
user = "root"
password = "***"
# sql
query = "select id,name as user_name,sex,decimal_f,phone_number,CAST(age AS SIGNED) as age,create_time,description,address from t_8_100w where id < 10"
# 并行读取配置
# 分片的字段:支持:String、Number(int, bigint, decimal, ...)、Date
partition_column = "id"
# 表的分割大小(行数):每个分片的数据行(默认8096行)。最后分片数=表的总行数 / split.size
split.size = 50000
# 分片数,匹配并行度parallelism(2.3.12已不推荐配置了,用split.size来代替)
# partition_num = 5
# 最大批处理数:查询的行提取大小(指定当前任务每次执行时读取数据条数,该值(默认1000)受运行内存影响,若该值较大或单条数据量较大,需适当调整运行内存大小。)
fetch_size = 10000
# 连接参数
# 连接超时时间300ms
connection_check_timeout_sec = 300
# 其他jdbc的参数
properties = {
useUnicode = true
characterEncoding = "utf8"
# 时区,不同数据库参数不一样
serverTimezone = "Asia/Shanghai"
# 使用游标提高大结果集性能
useCursorFetch = "true"
# 每次获取行数
defaultFetchSize = "10000"
}
}
# 第二个数据集
jdbc {
# 给这个数据集起个名字
plugin_output = "source_data2"
url = "jdbc:mysql://ip:port/cs1"
driver = "com.mysql.cj.jdbc.Driver"
user = "root"
password = "***"
#
query = "select id,name as user_name,sex,decimal_f,phone_number,CAST(age AS SIGNED) as age,create_time,description,address from t_8_100w where id > 10 and id < 20"
# 并行读取配置
# 分片的字段:支持:String、Number(int, bigint, decimal, ...)、Date
partition_column = "id"
# 表的分割大小(行数):每个分片的数据行(默认8096行)。最后分片数=表的总行数 / split.size
split.size = 50000
# 分片数,匹配并行度parallelism(2.3.12已不推荐配置了,用split.size来代替)
# partition_num = 5
# 最大批处理数:查询的行提取大小(指定当前任务每次执行时读取数据条数,该值(默认1000)受运行内存影响,若该值较大或单条数据量较大,需适当调整运行内存大小。)
fetch_size = 10000
# 连接参数
# 连接超时时间300ms
connection_check_timeout_sec = 300
# 其他jdbc的参数
properties = {
useUnicode = true
characterEncoding = "utf8"
# 时区,不同数据库参数不一样
serverTimezone = "Asia/Shanghai"
# 使用游标提高大结果集性能
useCursorFetch = "true"
# 每次获取行数
defaultFetchSize = "10000"
}
}
}
# 清洗转换(简单的清洗转换,直接在source的query的sql中处理了就行)
transform {
# 1. 字段映射:sql中做了,实际生成中不在这里处理。直接在source的query的sql中处理了就行
# 还可以用:FieldMapper 插件,来映射字段
# 转换age为数字类型(pgsql必须转)
# 2. 手机号脱敏:13812341234 -> 138****1234
# 3. 年龄转换:字符串转整数(实际生产中,不用转换,也没有内置的转换插件,可以直接保存成功)
# 4. 性别转换:1->男,2->女
# 5. 数据过滤:只保留 age > 25 的记录。
# 6. 地址默认值:空地址设为'未知'
}
sink {
jdbc {
# 接收的最终数据集(汇聚到一个结果中)
plugin_input = ["source_data1", "source_data2"]
url = "jdbc:postgresql://ip:5432/source_db"
driver = "org.postgresql.Driver"
user = "postgres"
password = "123456"
#
# query = ""
# 自动生成sql的配置,和query参数互斥
# 生成自动插入sql。如果目标库没有表,也会自动建表
generate_sink_sql = true
# database必须要,因为generate_sink_sql=true。
database = source_db
# 自动生成sql时,table必须要。
table = "public.t_8_100w_imp_st_ds_demo10"
# 生成类似:INSERT INTO …… ON CONFLICT ("主键") DO UPDATE SET …… 的sql
# enable_upsert = true
# 判断值唯一的健:此选项用于支持在自动生成 SQL 时进行 insert,delete 和 update 操作。
# primary_keys = ["id"]
# 表结构处理策略:表不存在时报错(任务失败),一般用:CREATE_SCHEMA_WHEN_NOT_EXIST(表不存在时创建表;表存在时跳过操作(保留数据))
schema_save_mode = "ERROR_WHEN_SCHEMA_NOT_EXIST"
# 插入数据的处理策略
# APPEND_DATA:保留表结构和数据,追加新数据(不删除现有数据)(一般用这个)
# DROP_DATA:保留表结构,删除表中所有数据(清空表)——实现清空重灌
# CUSTOM_PROCESSING :用户定义处理。需要配合:custom_sql使用
data_save_mode = "DROP_DATA"
# 当 data_save_mode 选择 CUSTOM_PROCESSING 时,您应该填写 CUSTOM_SQL 参数。此参数通常填入可执行的 SQL。SQL 将在同步任务之前执行。
#可以实现:同步删除(执行前置update、truncate的sql等)
#这个sql未执行,不知道为啥。
#这个sql已经执行。原因:因为generate_sink_sql=true的原因。才会执行custom_sql。(只有自动生成sql的时候,这个才会执行)
custom_sql = """update "source_db"."public"."t_8_100w_imp_st_ds_demo10" set "my_status" = 23"""
# 批量写入条数
batch_size = 10000
# 批次提交间隔
batch_interval_ms = 500
# 重试次数
max_retries = 3
# 连接参数
# 连接超时时间300ms
connection_check_timeout_sec = 300
# 其他jdbc的参数
properties = {
# PostgreSQL专用参数
# PostgreSQL的批量优化(注意大小写)
reWriteBatchedInserts = "true"
# 如果需要时区设置
options = "-c timezone=Asia/Shanghai"
}
}
}
- 结果(汇聚了19条数据)
2026-01-15 14:28:15,952 INFO [s.c.s.s.c.ClientExecuteCommand] [main] -
***********************************************
Job Statistic Information
***********************************************
Start Time : 2026-01-15 14:28:11
End Time : 2026-01-15 14:28:15
Total Time(s) : 4
Total Read Count : 19
Total Write Count : 19
Total Failed Count : 0
***********************************************
demo2:一个source分发到两个sink
……………………未完待续
浙公网安备 33010602011771号