怀疑是当时的并发高导致的oom 吗?连接相关的监控具体的面板是哪个?监控值保留3天的,现在已经看不到当时的连接情况了
我怀疑是内存泄漏,但是监控的那几个指标不是理解具体的含义
出现问题的时间段,查看了sql 占用内存最大为1G ,而且设置了mem-quota ,感觉不像是sql 的问题导致的
这种错误很常见,一般不是阻止tso推进的根因,可以看下cdc leader 的日志有没有相关报错信息,之前遇到过cdc延迟一直上涨,tso不推荐,是因为有dml语句,表没有索引导致下游执行时间超过2min。看监控图,现在是恢复了吗?可以 pause,resume 下看看
Blackbox_exporter ->Network Status 看下出现问题时间网络延迟呢
2台tikv 也可已是三副本吧,只是region分布不均
事务提交成功的标志,是多数的副本写入到rockdb tikv 中吧。现在这个场景的话,刚刚写到wal,数据还没有开始两阶段提交,这个时候是肯定不会查询到的吧。
已解决,非常感谢
select tidb_decode_key(‘7480000000006eb78d5f69800000000000003f0419b322f5cf0566d003a40000001216bfa8’); 找出对应的表,执行:ADMIN CHECK TABLE *** ,删除有问题的索引,重新启动changefeed,现已恢复正常
中断最开始的原因是下游tidb节点的4000端口不通,修改为4001端口之后,checkpoint 推进了一会,然后报这个错误。下游数据库是通过br恢复的,是需要在下游数据库执行select tidb_decode_key(‘7480000000006eb78d5f69800000000000003f0419b322f5cf0566d003a40000001216bfa8’);然后重建索引吧。我这边试下
场景需求:
数据归档,而且归档数据还会不定时的查询,保存单副本即可,在需要查询数据的时候可以进行数据恢复
你期望通过 TiKV 支持共享存储减少归档数据的备份频次
希望使用NAS来支撑该场景
痛点描述:
当前采用直通盘 Nvme硬件成本较高、扩展能力有限
功能需求:
期望 TiKV 可以支持nas来支持保存但副本数据
1.集群管理,提前预测风险点
2.监控告警
3.sql优化