Apache Doris 中文技术论坛
Questions Tags Users Badges

【已解决】flink-connector-doris消费kafka写入doris出现问题

Asked Apr 12, 2024 Modified May 6, 2024
Viewed 66
ingestion 2.0

1712900818935.png

edited May 6, 2024
zhb123319
asked Apr 12, 2024
1 Answers

默认的心跳超时时间为5s, 心跳停止后,FE马上abort coordinate BE 的事务。实际上be没有down
然而BE事务在导入过程中并不需要fe的参与,这个5s太敏感了,建议改成超过1分钟没心跳才abort coordinate BE 的事务。

参考pr:
https://github.com/apache/doris/pull/22781

edited May 6, 2024
徐振超@SelectDB7121
answered Apr 12, 2024
Related Questions
如图中所示,我1fe 2be,测试2000万行0.2G数据,导出文件不会分散在多个节点上,enable_parallel_outfile也开了,是有什么条件吗?
1 answers
stream load的时候不支持自定义agg_state函数
3 answers
如图,max_byte_per_task这个参数不是默认值9G吗,为什么官网写100G呢?还是说100G是最大值?
java 频繁操作数据库 一直报pparent connection leak detected怎么解决
1 answers
通过 finkcdc 同步mysql数据到doris【3.0.4、3.0.5】,报错 fail to apply alter column type event,3.0.3没有问题
1 answers
show routine load for后,在OtherMessage中出现了error,但是状态仍然处于是Running,数据是否处于正常接收的状态,还是数据出现了丢失
1 answers

Terms of service Privacy policy

Powered by Answer - the open-source software that powers Q&A communities.
Made with love © 2025 Apache Doris 中文技术论坛.