Questions
Tags
Users
Badges
All Questions
Newest
Active
Unanswered
Frequent
More
Score
View
Card
Compact
yezinong
1
•
asked Sep 22, 2025
3.1.0连接paimon(使用s3存储)失败,升级前使用3.0.7版本是没问题的
doris版本:3.1.0 paimon catalog配置: CREATE CATALOG paimon_s3 PROPERTIES ( "warehouse" = "s3://xxx/", "type" = "paimon", "s3.secret_key" = "xxx", "s3.region" = "us-east-1", "s3....
3.0
0
votes
4
answers
67
views
frank
1
•
asked Sep 22, 2025
DECOMMISSION BACKEND下线be节点卡住
VERSION:v2.1.6 12个be节点的集群现在下线其中的be-03节点,然而下线到最后be节点残留了21个tablet就卡住了,在 FE Master 的日志过滤到了replicas to decommission关键字,找到了异常的tablet查,然后退出Be-03的节点下线CANCEL DECOMMISSION BACKEND。接着操作下线另外一台的be-04节点,结果下线到残留83个tablet时候又卡住好久不动了,在fe的master里面也有replicas ...
2.1
cluster
0
votes
2
answers
58
views
yugunsung
117
•
asked Sep 22, 2025
检索分析,筛选条件等值查询触发全表扫描导致集群资源瞬间打满
版本:25.1.0 根据列名进行等值查询时,通过查看审计日志发现是distinct列名来实现没有带任何条件,如果是一张百亿级别的大表直接将资源打满,影响导入和其它查询,这个可以优化下吗?
demand
selectdb-studio
0
votes
1
answers
44
views
JiuYi
1
•
asked Sep 20, 2025
doris3.0.6版本BE进程常驻内存过高问题求助
如图BE节点内存分配为30G,be.conf配置如下,元数据和碎片过高导致查询sql经常受限,求解决思路,另外尝试过碎片清理和表合并的脚本,作用不大,脚本一并贴上。 物理内存上限(30 G 硬顶) mem_limit=32212254720 soft_mem_limit_frac=0.9 ===== 1. 查询层 ===== enable_query_memory_overcommit=false max_query_instances_per_be=40 query_cac...
3.0
0
votes
1
answers
71
views
meng
17
•
asked Sep 20, 2025
v2.1.5 关于exec_mem_limit 疑问
感觉exec_mem_limit 没有生效,我使用SHOW VARIABLES LIKE 'exec_mem_limit';查看到的限制内存是2G,使用SHOW PROPERTY FOR 'root'; 暗道的 exec_mem_limit 看到的内存限制是 -1 ,那我如果执行查询或者导入 ,doris 内部是如何限制内存的占用情况的? 反正我执行了一个 2000W+ 的 isnert into select 内存拍了10多个G
2.1
0
votes
1
answers
35
views
asynn
1
•
asked Sep 19, 2025
Doris存算分离架构压测指标上不去
目前我用3台112核476GiB,带宽上限为35Gbps的机器配置了一个存算分离集群,每台机器上都有一个FE和BE,每台机器有四块1T的盘用作file_cache,远端用s3存储。 压测脚本使用stream_load的方式、使用128个线程、100000的batch去写入数据。 Insert success, this batch: 1000000 rows, 287.68 MB, cost:8981ms这是写入一次的大小。 但是我通过查看Grafana,发现每台机器的CPU...
ingestion
0
votes
1
answers
72
views
wayne
1
•
asked Sep 19, 2025
Flink CdcTools 使用Oracle XStream方式 初始化时无问题,在增量同步时无法识别Oracle Date类型数据,会将目标字段值设为NULL
AI给出结论: XStream 走的是二进制 LCR(Logical Change Record),Oracle DATE 存储为 7 字节格式(不是标准 JDBC TIMESTAMP),需要 Connector 端解码。 一些 FlinkCDC 版本对 DATE → TIMESTAMP 的解码缺失,导致 Debezium 直接丢 null 给下游
ingestion
0
votes
1
answers
37
views
wayne
1
•
asked Sep 19, 2025
Flink CdcTools 使用Logminer方式 oracle 如果使用@dblink将其他库数据插入源库会导致SCN跳跃 增量失败
2025-08-27 18:56:54,865 INFO org.apache.doris.flink.sink.writer.DorisStreamLoad [] - table TEST_TAB start execute load for label label_1756292139498_TEST_TAB_0_20 2025-08-27 18:56:56,981 WARN io.debezium.connector.oracle.logminer.processor....
ingestion
0
votes
1
answers
29
views
wayne
1
•
asked Sep 19, 2025
Flink CdcTools 使用Logminer方式 oracle 单库模式下 如果某张表 列名长度超30字符 将无法捕获
completeTable 'test_tab' won't be captured by Oracle LogMiner because column 'TEST_XXXXXXXX_XXXXXX_EFFECT_TIME' exceeds 30 characters. doris版本 apache-doris-2.1.10 flink-doris-connector-1.20-24.0.1.jar flink-sql-connector...
ingestion
0
votes
1
answers
42
views
yezinong
1
•
asked Sep 19, 2025
用Doris Manager升级3.0.7到到3.1.0版本,提示“升级版本有依赖关系”
如图,是什么原因呀,该如何处理?
3.0
0
votes
1
answers
49
views
Prev
Prev
57
58
59
(current)
60
61
Next
Next
Hot Questions
日志一直在报parse date or datetime fail
1 answers
升级后视图查询速度变慢
doris存算一体架构中,对表进行冷热分层后,数据放在远程存储cos上面,发现磁盘暴涨的同时cos的读请求量很大。
1 answers
doris-manager webserver启动问题
1 answers
Doris从2.1.6迭代升级到3.1.2后故障问题
使用StreamLoad向Doris-4.0.1版本的聚合表导数据超时问题
1 answers