再看看执行计划estRows actRows 这2个值偏差还有这么大吗
另外你这单条sql 索引扫描百万行 资源使用肯定会多,看看业务上有什么优化空间
如果不要求实时性,最简单的方法可以尝试切割下数据量,比如一千万一次 用batch on insert into select from where 做迁移,一亿条的话这么迁移大概一两个小时能跑完。
建议你给这个表做个统计信息更新,看起来扫描数据条数不正常
几亿条数据不是很多,可以batch on insert into
优先优化sql,你这sql消耗kv磁盘资源多了吧
可以试试资源管控
2个kv节点是怎么部署的? 单副本?pd节点状态是什么?
cpu都百分之80了 你还问cpu够不够用,是一定要百分之100才升级扩容吗?
阿里云的message.max.bytes默认值是1M,需要改大
【最近一次/印象最深的运维 TiDB 时的误操作】
误删一张表,恢复数据的时候吧原id也恢复了,导致新数据插入冲突
【最后是怎么解决的】
重新恢复数据不带id主键
【给小伙伴们一些避坑建议吧~】
谨慎操作
查看下kv的监控指标 TiKV-Details Thread CPU下有个Unified read pool CPU 这个cpu使用是否到瓶颈了
【如果 TiDB 接下来会上线全托管的云服务,你希望上线到哪些公有云上?(阿里云/腾讯云…)】
阿里云,虽然很难
【如果国内有 TiDB Cloud,你会考虑购买全托管的云数据库 TiDB Cloud 吗?主要顾虑或需解决的问题是?您最看重哪些能力?】
不会,数据库肯定私有化搭建的
【你所在的企业现在是否有在云上部署 TiDB ? 在哪些云上?】
阿里云
【大家所在的行业是什么?】
制造业
【所在行业对数据库容灾有哪些具体需求?】
高可用,快速回复
【目前正在采用的容灾方案是什么?】
主从
一共就3个kv节点 你得先扩容一个节点再下线坏掉的节点。
下游是什么数据库?如果是tidb admin show ddl jobs看看是不是有ddl卡住了