br backup full --pd “xxxxxx:2379” --storage “s3://tsp-tidb-backup/test/?access-key=xxxxx&secret-access-key=xxxxx” --s3.provider “alibaba” --s3.region “oss-cn-shanghai” --s3.endpoint “
https://oss-cn-shanghai-internal.aliyuncs.comunistore我没用过,你看下支持
ADMIN COMPACT TABLE <table_name>;
语法吗?
对,建议是像1这样,同一个机器,定义host一致,同一个机架上的,定义rack一致。
label,你理解为越不一样越能存储同一个region的不同的副本即可。
2的问题是如果向我说的那样,一个机房有abc三台机器,每个各有2个实例,那他们的dc1、zone1肯定是一样的,如果6个节点的host分别设置host1-6的话,一个region的两个副本是有可能分布在一个机器的两个节点上的
缩不了,你的tikv三副本的话,起码得3个tikv节点啊。
当然我说的是理想情况, 实际调度是根据下面的原则来的:
调度优先级:PD会优先考虑高层级的标签隔离。例如,在["zone", "dc", "rack", "host"]配置中,PD会首先确保副本分布在不同的zone,然后是不同的dc,以此类推。
最大隔离级别:PD会尽可能在最高级别上实现副本隔离。如果副本数量超过某一级别的故障域数量,PD会尝试在下一级别上实现隔离。
实际上建议,例如你同一个机器打标为同一个host,一个机架打标为一个rack,一个机房打标为一个dc,一个城市打标为一个zone,类似这样,会尽量避免一个区域存放同一个region的不同副本,避免一个机器,或者整个机架,或者…
gc只是将打标为删除的数据进行清理,避免sql扫描再扫到已删除的数据,空间像释放得等compact,或者手动compact
【Octane 在 TiDB 环境下的实际延迟优化效果?】
没用过啊
【Swoole 与 RoadRunner 在存算分离架构中的稳定性对比?】
都没用过
【是否有类似迁移案例的最佳实践或分享你遇到的常见陷阱?】
没有
3个机器,3副本,6个实例(每个机器上两个tikv实例),假如a机器上的实例有a1和a2,如果是 1)dc1、zone1、host1 , dc1、zone1 、host1配置,同一个region的最多只有1个副本能存在a1或者a2上,也就是a机器上只能最多存在同一个region的一个副本,这种情况,如果a1挂掉,上面的所有副本都是可以迁移到a2上的;如果是 2)dc1、zone1、host1 , dc1、zone1 、host2,则可能出现同一个region的最多各有个副本能存在a1和a2上,也a机器上最多能存在同一个region的两个副本,这种情况,如果a1挂掉,上面的副本如果和a2上不属于…
这个比例不是固定的,和你的索引字段的长度,以及是否需要回表都有关系
【 所在公司面临哪些 RDS 使用痛点?】
rds一般少见吧,生产都是drds,rds单机模式,没法横向扩展啊,drds倒是可以扩展,但是得分库分表,也是个麻烦事
【关于 RDS 替换选型,你更看中哪些维度?】
横向扩展功能,业务无需操心数据存储方式
【在 RDS 的迁移改造中,你遇到了哪些问题?希望嘉宾分享哪些经验?】
rds都是当mysql用的,rds支持存储过程的,切换到社区版tidb,又得改造,这点很麻烦
除了上学的时候,我再没用过SQL sever了。。。
可以在线扩展的,不影响业务,例如你原来3TB数据,分布在5个tikv上,后面涨到了5TB,可以再扩充2个tikv节点,数据自动均衡,不影响在线业务
都是些tar包,想删也可以删,需要的时候再下载下就行
看到这种帖子,一秒都不用看,直接出去就行了,影响自己的心情。