我给你做了个错误的示范,希望你能理解,发泄情绪无助于解决问题。

没关系,你逮着我反问?????
你现在知道和我没关系了?????
谁没情绪?
我也有,你这一串问号,我也可以有情绪了不是么?
你要骂公司我真觉得没啥问题。我支持你骂。
因为他们拿钱办事,这个事确实应该做好。
但文档也是开源的,写文档的人可能不一定是他们公司的。人家也是为爱发电,又没收钱,你火气这么大,连话都不想好好说,就没有必要了不是么
所以你是来发泄情绪的,解决问题还在其次是这么个意思?
你现在这不是能好好说话么。文档有问题,可以改的嘛。
你弄的一副他文档写的不好,他就该死的样子就没有必要了吧。
不是,没sudo权限的话,tiup打不开对应的limits文件吧?
所以就一直查不到,以为你设置的是一个默认值。
以前查询分区表性能下降是因为没有全局索引,有全局索引以后应该是好很多。
建议好好看看这个。
不是执行计划的问题,执行计划其实是一样的,只是个别算子名字可能有变化。
问题出在actrows上,实际扫描的数据量有了数量级的差异造成的。
建议用where条件中的4个列,单独建一个索引试试。
这个里面,你直接点进去应该能看到这个1.3g的内存是那个算子用的最多。执行计划的列很多,往后拖应该能看到。
感觉这个执行计划有点问题。limit算子不太应该用这么内存,如果加order by我是能理解的。现在这个1.3g就很难理解用在哪里了。
我怎么怀疑是网络出错了呢。
因为你执行tiup list dm-master能明显看到的。
v8.5.0
2024-12-19T06:27:40Z
darwin/amd64,darwin/arm64,linux/amd64,linux/arm64
liunx+amd64这个组合是肯定有的。不应该报这个错。
9090应该是 Prometheus的端口。
参考下面这个
我试了下。7.5.6下执行计划确实有问题。需要加hint
explain
select statistics_date,count(1)
from merchant_assessment_day_warn_detail use index(idx_create_time)
where create_time between ‘2025-08-20 00:00:00’ and ‘2025-09-09 00:00:00’
group by statistics_date
order by statistics_date;
加个use index就变回来了。另外最新版本v8.5.3…