scale-in –force强制缩容这个节点,再重新扩容scale-out,这样试一下是否可行
dumpling+lightning全量同步数据,然后用ticdc同步实时数据过来。这方式稳妥,方便测试,校验数据,还可以进行业务功能测试。
应该是的,通过tidb方式作为接口后,tikv组件就主要负责kv存储了。其它内部的通信由tidb分布式集群组件(tidb,tikv,pd)自己完成。
shop_id 和 end_time 刷选出来的符合条件的行数有多少,,具体得看选择率,如果符合条件得行很少,试试联合索引有没有效果,等值查询的列放在联合索引中的前面。

我记得当时是回复那个tidb数据迁移的方案问题,,,
tidb每次写入访问时,先访问region cache,获取leader region的tikv节点,如果过时了,就会重新去pd节点获取region 新leader的tikv节点
这个是连接上tidb后,过一段时间连接被超时中断?还是刚开始可以新建连接,然后过一会新建连接失败,报连接超时错误?
但是,tikv是集群节点形式,表中数据也是分布式存放的在tikv集群节点中,单纯从tikv节点,很难获得一个分布式事务的一致性吧?
只能将有问题的表,尽可能的将能获取出来的表数据备份出来,然后重建有问题的表吧。
你环境中设置的tiflash副本数为2,遇到错误,有没有试过调整为1个副本,然后再测试下呢?
目前tidb还只能手工指定,等待开发这个功能吧,按天或者按月自动分区,有些场景还是挺实用的。
但是这个分布式事务是通过tidb server来实现的,单纯的tikv节点无法实现的。
下载第三方工具pt-show-grants,然后类似下面,就可以打印用户和权限出来,很方便:
pt-show-grants -hxxxx -P4000 -uroot -p