总结一下,做个记录:
线上业务tikv做缩容,不要直接tiup cluster scale-in 集群名 --node 10.100.100.101:20161 --node 10.100.100.102:20161,这样会出现大面积dml慢查询,backoff重试
tikv扩容几乎没有影响,或者说性能影响低
tikv下线操作先手动进行leader迁移:tiup ctl:v6.5.5 pd store weight 69804641 0 1 --pd=“
http://10.100.100.111:2379”
然后再进行scale-in缩容
应急操作直接stop掉下线的tikv instan…