Apache Doris 中文技术论坛
Questions Tags Users Badges

【已解决】flink写入数据出现异常

Asked Feb 27, 2024 Modified Feb 28, 2024
Viewed 52
ingestion 2.0

24540eeb06a7ad76efe5dcaf9170f0d.png

这个是什么原因,怎么解决

edited Feb 28, 2024
zhb123319
asked Feb 27, 2024
2 Answers

可以先确定下BE的状态,是否在导入数据期间BE 出现了异常情况,如果是异常BE节点是 cordidate BE, 那么此次streamload job 也会失败的.

同时可以在fe.log 中grep "java.net.SocketTimeoutException: Read timed out" 看看是不是有网络抖动问题

edited Feb 27, 2024
阿渊@SelectDB7300
answered Feb 27, 2024

应该是自动修复了,任务自动重试成功了

edited Jan 1, 1970
zhb123319
answered Feb 27, 2024
Related Questions
如图中所示,我1fe 2be,测试2000万行0.2G数据,导出文件不会分散在多个节点上,enable_parallel_outfile也开了,是有什么条件吗?
1 answers
stream load的时候不支持自定义agg_state函数
3 answers
如图,max_byte_per_task这个参数不是默认值9G吗,为什么官网写100G呢?还是说100G是最大值?
java 频繁操作数据库 一直报pparent connection leak detected怎么解决
1 answers
通过 finkcdc 同步mysql数据到doris【3.0.4、3.0.5】,报错 fail to apply alter column type event,3.0.3没有问题
1 answers
show routine load for后,在OtherMessage中出现了error,但是状态仍然处于是Running,数据是否处于正常接收的状态,还是数据出现了丢失
1 answers

Terms of service Privacy policy

Powered by Answer - the open-source software that powers Q&A communities.
Made with love © 2025 Apache Doris 中文技术论坛.