17点16分,是你异常的时间点吗?有个节点leader全掉了
是不是迁移的数据影响的,pdctl看下下面这些参数,适当修改小一点看下 leader-schedule-limit, region-schedule-limit, replica-schedule-limit
store limit 执行下也看下,store limit all 5 修改
你实际explain analyze看下执行计划,然后发出来,不过你这sql看着用tiflash也不错呀,你有装tiflash节点吗?加个tiflash副本看下应该会挺快
这个执行计划,很多表都命中缓存了啊,copr_cache_hit_ratio是1,实际的执行计划也不好,我建议还是分析下这些表,看下这个sql有没有更合理的执行计划吧,虽然几万行的表不大,但是如果loops起来也很慢的
你给总表加了tiflash,但是小时表没加tiflash,报错是表定义不一样啊,不知道你给小时表也加上tiflash,能不能exchange 成功,反正以前试过,如果在表上加了placemant rule的分区表和普通表无法做exchange partition操作的,不知道加了tiflash是不是同理
像grafana,以前没有单独的组件的,你安装集群里面自带的有grafana,后来增加了grafana组件,你可以单独安装grafana组件,dm-master、dm-worker、dashboard等同理
看下store1对应机器对应时间段的cpu使用率把,cop就是数据聚合操作,一般是大批量的region扫描导致cpu使用率增高导致他变慢
你这表的统计信息是不是有问题啊,怎么estrows和actrows差这么多。。。看actrows,用下面两个sql好,看estrows,就是第一个sql效率高了。。。。
【简化技术栈是一个必然的趋势吗?】
肯定的
【在使用 TiDB 过程中,有哪些优质的极简开发体验令你印象深刻?】
playground部署实验环境,一条命令不要太简单。
看下pd和tikv的负载,以及它们之间的网络,不行把这个参数 merge-schedule-limit调低点降低合并的线程数
我的意思是,是不是强制走联合效率还不如走单列,所以走了单列,可以把两个执行计划发出来看下
11到20行改下:
mysql-instances:
source-id: “mysql-replica-01”
route-rules: [“instance-1-user-rule”, “sale-route-rule”]
filter-rules: [“trace-filter-rule”, “user-filter-rule”, “store-filter-rule”]
block-allow-list: “log-ignored”
mydumper-config-name: “global”
loader-config-name: “global”
syncer-c…