【Flink SQL】Unable to convert to TimestampData from unexpected value of type java.lang.Long
需求
需要将Kafka的数据导入到Apache Druid,而Apache Druid的Ingestion时区是默认UTC+0的。
不能使用如下时间格式:
- '2021-09-28 10:00:00', 会被当成'2021-09-28T10:00:00Z'。
总结
- MYSQL CDC source 必须是timestamp,不能是timestamp_ltz,否则Flink作业启动后,CDC的connector报错。
- MYSQL CDC source server-time-zone加了UTC+8,报错(说是找不到UTC+08:00这个TimeZone Entry),只能加'server-time-zone' = 'GMT+8'。
- Upsert Kafka 要加 ISO-8610属性,但是加了会把当前时间作为UTC+0,不加直接变成原始SQL时间戳。
- Upsert Kafka 时间列可以设置为 TIMESTAMP_LTZ,否则JSON依旧变成UTC+0。
- KAFKA Connector 属性叫json.timestamp-format.standard,KAFKA UPSERT Connector 的属性叫value.json.timestamp-format.standard(slankka注) 。
Kafka Upsert Connector:
  'value.json.timestamp-format.standard' = 'ISO-8601',
  'key.format' = 'json',
  'value.format' = 'json',
  'value.fields-include' = 'ALL' -- EXCEPT_KEY:key不出现kafka消息的value中, 默认ALL(slankka注)
附录
如果CDC Source的列定义为timestamp_ltz,则报错如下:
 
                    
                     
                    
                 
                    
                

 
                
            
         
         浙公网安备 33010602011771号
浙公网安备 33010602011771号