不需要强行,你-- force 缩容会自动transfer。觉得慢可以调整transfer速度
三节点 有坏掉一个节点去强制下线它时,首先需要先扩容一个节点 然后–force缩容下线节点。下线节点在region transfer完成后,会自动在pd-ctl中的信息中消失
之前好像就有碰到过类似的case,程序链接里面有单独设置不同的sql_MODE
数据量小直接insert 方便,大的话dumpling + lightning
TiDB 在迁移时不需要做分区表,分区键,底层key-value 自动划分region,这一点比起OB在迁移时要选好分区键要方便的多
同时TiDB扩缩容非常的灵活,可以选择扩容1个2个,N个 tidbserver ,tikv等。但是OB 生产环境扩容OBSERVER的话需要每个Zone都扩容一台。
如果确定是热点问题,可以通过 tidb中hot_region_history确定热点region,,table。或者热力图也行。 后续对表进行auto_random的打散
block cache修改之后可以观察下tikv detail的block cache size有没有下降。另外.3上的内存使用有到瓶颈吗 虽然看到.3上的组件是挺多的。其次你这张图片上面提示的info显示的什么信息
先看tikv线程池中哪个线程池使用率高,大概率是unified read pool,如果是的话,去找TOPSQL,和扫key多的slowQuery。
这个版本的global kill都是默认开启的 可以把plan ,log上传上来 看看是哪个bug
tabledual应该是输出的有问题。如楼上猫哥说的 应该是v6版本小版本的bug
tiup deploy -p把密码加在这行,tiup也不会去验证的,只有换行后才会验证密码,产品设计上好像就是这样的