Apache Doris 中文技术论坛
Questions Tags Users Badges

【已解决】flink-connector-doris消费kafka写入doris出现问题

Asked Apr 12, 2024 Modified May 6, 2024
Viewed 78
ingestion 2.0

1712900818935.png

edited May 6, 2024
zhb123319
asked Apr 12, 2024
1 Answers

默认的心跳超时时间为5s, 心跳停止后,FE马上abort coordinate BE 的事务。实际上be没有down
然而BE事务在导入过程中并不需要fe的参与,这个5s太敏感了,建议改成超过1分钟没心跳才abort coordinate BE 的事务。

参考pr:
https://github.com/apache/doris/pull/22781

edited May 6, 2024
徐振超@SelectDB8006
answered Apr 12, 2024
Related Questions
Doris4.0.1通过Debezium Kafka Connector 监控MySQL数据再通过Doris Kafka Connector实时同步到Doris内部表速度很慢是怎么回事儿
1 answers
doris中使用kettle streamloader插件执行删除的时候,会有执行删除失败的情况,但是有时候也会成功,在navicate上执行这些delete是正常,但是和kettle落数据这个过程没法串起来,对现场采集和ETL不友好。失败的原因目前看到的只有一种就是类型转换异常的问题,具体报错如图
Doris 2.1.11版本 自增列插入问题
1 answers
doris 3.0.4 backup数据到oss 失败,怎么解决
1 answers
不同doris集群如何同步数据?
1 answers
通过broker load导入数据失败,be.WARNING会出现如下日志,这是什么原因?
1 answers

Terms of service Privacy policy

Powered by Answer - the open-source software that powers Q&A communities.
Made with love © 2025 Apache Doris 中文技术论坛.