Apache Doris 中文技术论坛
Questions Tags Users Badges

Flink CdcTools 使用Oracle XStream方式 初始化时无问题,在增量同步时无法识别Oracle Date类型数据,会将目标字段值设为NULL

Asked Sep 19, 2025 Modified Sep 19, 2025
Viewed 43
ingestion

AI给出结论:
XStream 走的是二进制 LCR(Logical Change Record),Oracle DATE 存储为 7 字节格式(不是标准 JDBC TIMESTAMP),需要 Connector 端解码。
一些 FlinkCDC 版本对 DATE → TIMESTAMP 的解码缺失,导致 Debezium 直接丢 null 给下游

edited Sep 19, 2025
wayne1
asked Sep 19, 2025
1 Answers

可以使用logminer的方式试试

edited Jan 1, 1970
JNSimba336
answered Sep 19, 2025
Related Questions
Spark Doris Connector 从hive导入doris double类型丢精度怎么解决?
1 answers
4.0.3 mysql 通过CREATE JOB 同步数据之后中文变成了?
2 answers
ROUTINE LOAD导入kafka数据,当kafka是cdc数据,JSON格式,带删除标识的:op:d
1 answers
大量数据通过streamload导入报错
1 answers
能使用ROUTINE LOAD将kafka数据批量同步到doris中吗
1 answers
4.0.4 stream load 报错: can not cast from origin type bitmap to target type=varchar(65533)
1 answers

Terms of service Privacy policy

Powered by Answer - the open-source software that powers Q&A communities.
Made with love © 2026 Apache Doris 中文技术论坛.