主要的场景就是ticdc任务出现故障,需要增量备份1天或几天的数据,进行增量恢复
没有的,这个是同样的数据验证出来的。这个升级会导致代码报错
这个时候,其他任务的某些表的QPS挺高的,但是ticdc资源消耗并不高。一直是“event feed starts to check locked regions”
是的,现在想看看cancal-json协议有没有提供这个功能
你们用的是不是open-protocol协议,我测试老版本,在cancal-json协议下,就算用了也不起作用
写错了,目前的测试结果是cancal-json没找到办法关闭old_value
我遇到的问题不是负载情况,cpu,内存,io资源都很充足
这个版本我也在用,而且我们公司的表都是亿级别的,加索引虽然会慢,但是不会停止不前,admin show ddl jobs结果中有同步的行数,这个可以看成进度,你再看看,这个行数有没有变化
我的理解就是可以看成mysql的主从,如果主库有很大的写入流量,备库的延时会比较厉害。你可以考虑,先看看dm调优,如果没有效果,可以考虑创建多个同步任务,每个任务同步几张表,把大流量大表单独出去
不同的表不会在同一个region,如果数据量大,region数过多,可以通过监控指标来判断。官方有相应的策略来解决,可以扩容pd,可以将region的大小调大,根据具体的情况来处理
整个集群TiKV的元数据
分配全局的ID和事务ID
全局的TSO
收集集群信息
dashboard
我们现在产线用的Rocky Linux 9.1这个,没有出现问题