Apache Doris 中文技术论坛
Questions Tags Users Badges

【已解决】flink-connector-doris消费kafka写入doris出现问题

Asked Apr 12, 2024 Modified May 6, 2024
Viewed 67
ingestion 2.0

1712900818935.png

edited May 6, 2024
zhb123319
asked Apr 12, 2024
1 Answers

默认的心跳超时时间为5s, 心跳停止后,FE马上abort coordinate BE 的事务。实际上be没有down
然而BE事务在导入过程中并不需要fe的参与,这个5s太敏感了,建议改成超过1分钟没心跳才abort coordinate BE 的事务。

参考pr:
https://github.com/apache/doris/pull/22781

edited May 6, 2024
徐振超@SelectDB7146
answered Apr 12, 2024
Related Questions
2.1.9,Streamload 导入数据 RPC call is timed out
1 answers
doris的group commit使用问题
2 answers
doris export 导出数据为parquet格式,可以设置压缩吗?列分隔符可以设置吗?
1 answers
kettle 通过 doris stream load 组件写入数据到doris中,kettle日志成功,表里没有数据
1 answers
java中通过mybatis批量写入数据,写入速度才100/秒,远远达不到官网说的1w/秒
1 answers
Doris 2.0.15 使用 insert into 插入1kw数据到一张空表上,之后想执行full compaction压缩,但是报错
2 answers

Terms of service Privacy policy

Powered by Answer - the open-source software that powers Q&A communities.
Made with love © 2025 Apache Doris 中文技术论坛.