0
0
0
0
专栏/.../

TiDB 4.0 基于 Binlog 的跨机房集群部署

 mydb  发表于  2021-06-16

作者:靳献旗,汽车之家 DBA

【是否原创】是
【首发渠道】TiDB 社区
【目录】
1.背景介绍
2.跨机房方案概述
3.工作原理
4.集群架构
5.部署步骤
6.线上使用情况
7.展望

【正文】

1. 背景介绍

公司要求对 0 级应用做跨机房部署,当 A 机房整体故障时,业务可以快速切到 B 机房继续提供服务。恰好也涉及到了几套 TiDB 集群相关业务,这里做一下总结和回顾,希望能够帮助需要的用户。本文主要涉及下面几项内容:

● 几种基于 TiDB 的跨机房部署方案及优缺点

● 基于 Binlog 跨机房双向复制的详细部署步骤

● 线上 TiDB 跨机房使用情况及展望

2. 跨机房方案概述

下面介绍下 TiDB 几种跨机房集群部署方案的优缺点:

序号 方案 优点 缺点
1 同城三中心 是完美适配TiDB的部署方式 1.提供单一中心故障的自动故障转移能力 2.同城多活,资源最大化利用,所有副本都能参与计算 3.较低的成本(同城裸光纤) 绝大多数用户不具备同城三中心条件
2 同城双中心可用区方案(同中心的多个可用区在一定程度上物理隔离) 1.提供单一可用区故障的自动故障转移能力 2.同城多活,资源最大化利用,所有副本都能参与计算 3.较低的成本(同城裸光纤) 无法容忍包含多个可用区的机房整体故障
3 两地三中心 1.提供单一可用区故障的自动故障转移能力 2.同城双活 1.成本过高 2.收益低(高网络延迟,异地中心的部分不参与计算) 3.只依赖异地的副本无法恢复一致性(RPO=0)的数据,其异地容灾能力与主从集群方案差别不大
4 同城双中心 Raft 复制 1.提供灾备中心故障的自动故障转移能力 2.同城双活 3.资源最大化利用,所有副本都能参与计算 4.较低的成本(同城裸光纤) 只能容忍灾备机房故障,缺乏实际意义
5 同城双中心自适应同步复制 1.提供灾备中心故障的自动故障转移能力 2.提供主中心故障时的灾备机房数据手工恢复的能力 3.同城双活 4.资源最大化利用,所有副本都能参与计算 5.较低的成本(同城裸光纤) 方案还外部试点测试中,预计2021年下半年达到生产级别可用

目前公司是同城双中心,因此上述方案排除掉1、2、3方案,4方案缺乏实际意义,5方案还不成熟,所以4、5也排除掉。难道没有方案可用?下面还有两种方案没提到,这里从技术层面分析下两种方案的优缺点。

序号 方案 优点 缺点
6 基于 Binlog 双向复制 1.成熟稳定 1.Drainer 不具备高可用 2.并发处理不足
7 基于 TiCDC 双向复制 1.具备高可用 2.并发处理强 1.官方未 GA 2.内存使用较大 3.复制中断问题

经过分析,我们最终选择了过度方案 6 :基于 Binlog 双向复制部署跨机房集群。后续时间成熟,我们会升级到方案 7 或者 5。

3. 工作原理

下面简单描述下基于 Binlog 双向同步的工作原理

%E5%8E%9F%E7%90%86a

在 A 和 B 两个集群间开启双向同步,则写入集群 A 的数据会同步到集群 B 中,然后这部分数据又会继续同步到集群 A,这样就会出现无限循环同步的情况。如上图所示,在同步数据的过程中 Drainer 对 Binlog 加上标记,通过过滤掉有标记的 Binlog 来避免循环同步。详细的实现流程如下:

(1)为两个集群分别启动 TiDB Binlog 同步程序。

(2)待同步的事务经过 A 的 Drainer 时,Drainer 为事务加入 _drainer_repl_mark 标识表,并在表中写入本次 DML event 更新,将事务同步至集群 B。

(3)集群 B 向集群 A 返回带有 _drainer_repl_mark 标识表的 Binlog event。集群 B 的 Drainer 在解析该 Binlog event 时发现带有 DML event 的标识表,放弃同步该 Binlog event 到集群 A。

● 注意事项:

集群间双向同步的前提条件是,写入两个集群的数据必须保证无冲突,即在两个集群中,不会同时修改同一张表的同一主键和具有唯一索引的行。

更详细的内容请参考官方文档

https://docs.pingcap.com/zh/TiDB/stable/bidirectional-replication-between-TiDB-clusters#%E9%9B%86%E7%BE%A4%E9%97%B4%E5%8F%8C%E5%90%91%E5%90%8C%E6%AD%A5

4. 集群架构

集群信息如下:

集群 A (位于机房 A,ip 做了脱敏处理)

IP 版本 组件 配置
192.168.1.1 4.0.9 TiDB/PD/Pump/Drainer 内存:256G 硬盘:SATA SSD CPU:48核 网卡:万兆
192.168.1.2 4.0.9 TiDB/PD/Pump
192.168.1.3 4.0.9 TiDB/PD/Pump
192.168.1.4 4.0.9 2个TiKV 内存:256G 硬盘:SATA SSD CPU:64核 网卡:万兆
192.168.1.5 4.0.9 2个TiKV
192.168.1.6 4.0.9 2个TiKV
192.168.1.7 4.0.9 2个TiKV

集群 B (位于机房 B,ip 做了脱敏处理)

IP 版本 组件 配置
192.168.2.1 4.0.9 TiDB/PD/Pump/Drainer 内存:256G 硬盘:SATA SSD CPU:48核 网卡:万兆
192.168.2.2 4.0.9 TiDB/PD/Pump
192.168.2.3 4.0.9 TiDB/PD/Pump
192.168.2.4 4.0.9 2个TiKV 内存:256G 硬盘:SATA SSD CPU:64核 网卡:万兆
192.168.2.5 4.0.9 2个TiKV
192.168.2.6 4.0.9 2个TiKV
192.168.2.7 4.0.9 2个TiKV

集群架构如下

%E5%8E%9F%E7%90%862

5. 部署步骤

本节详细介绍基于 Binlog 的跨机房部署步骤,这里以 TiDB 4.0.9 版本为例,对一个线上未开启 Binlog 的集群配置跨机房复制。主要分为两部分配置:A 集群配置,B 集群配置。

● A 集群配置步骤概要

(1)A 集群部署 Pump

(2)A 集群开启 Binlog

(3)A 集群导出全量数据,将全量数据导入 B 集群

(4)A 集群配置 drainer ,实现增量复制

● B 集群部署步骤概要

(1)B 集群部署 Pump

(2)B 集群开启 Binlog

(3)B 集群配置 drainer ,实现反向复制

5.1 A 集群部署步骤

【 A 集群部署 Pump 】

  1. 编写 Pump 扩容拓扑配置
vim scale_out_pump.yaml
pump_servers:
- host: 192.168.1.1
  ssh_port: 22
  port: 8250
  deploy_dir: /data/pump-8250
  data_dir: /data/pump-8250/data.pump
  log_dir: /data/pump-8250/log
  config:
    gc: 3  #指定 binlog 可在本地存储的天数,超过指定天数的 binlog 会被自动删除
- host: 192.168.1.2
  ssh_port: 22
  port: 8250
  deploy_dir: /data/pump-8250
  data_dir: /data/pump-8250/data.pump
  log_dir: /data/pump-8250/log
  config:
    gc: 3
- host: 192.168.1.3
  ssh_port: 22
  port: 8250
  deploy_dir: /data/pump-8250
  data_dir: /data/pump-8250/data.pump
  log_dir: /data/pump-8250/log
  config:
    gc: 3
  1. 执行下面命令扩容 Pump
tiup cluster scale-out a_cluster scale_out_pump.yaml
  1. 查看 Pump 状态
tiup cluster display a_cluster
  1. 登录 TiDB 查看 Pump 状态
show pump status;

【 A 集群开启 Binlog 】

  1. 编辑 A 集群配置文件开启 Binlog
tiup cluster edit-config a_cluster
server_configs:
  TiDB:
    binlog.enable: true        # 设置为 true 开启 Binlog
    binlog.ignore-error: true  # 建议设置为 true ,否则 Binlog 无法写入时会导致整个集群无法写入数据                      
  1. 滚动重启 TiDB-server
tiup cluster reload a_cluster -R tidb
  1. 登录 TiDB 确认当前集群是否开启 Binlog
show global variables like 'log_bin'; # 1 表示开启

【 A 集群导出全量数据,将全量数据导入 B 集群 】
1.A 集群导出全量数据

/data/tidb-tools/bin/dumpling -h 192.168.1.1 -P 4000 -u username -p password --params="TiDB_isolation_read_engines=tikv" --filetype sql --tidb-mem-quota-query 8589934592 --threads 2 -r 500000 -F 200MiB -o /data/bak_4000_20210522 -f 'sms_send.*' -f 'rcm_pool.*' --loglevel debug --logfile dumpling_20210522.log

2.将全量数据导入 B 集群

/data/tidb-tools/bin/loader -h 192.168.2.1 -P 4000 -u username -p password -t 4 -d /data/bak_4000_20210522

【 A 配置 Drainer 实现增量复制 】

  1. 编写 Drainer 扩容拓扑配置
vim scale_out_drainer.yaml
drainer_servers:
- host: 192.168.1.1
  ssh_port: 22
  port: 8249
  commit_ts: 425112071610302470    #从上一步的 /data/tmp/bak_20210522/metadata 文件获取
  deploy_dir: /data/drainer-8249
  data_dir: /data/drainer-8249/data
  log_dir: /data/drainer-8249/log
  config:
    syncer.loopback-control: true
    syncer.channel-id: 123456      #互相同步的两个集群配置相同的 ID
    syncer.sync-ddl: true          #需要同步 DDL 操作
    syncer.db-type: tidb
    syncer.ignore-schemas: INFORMATION_SCHEMA,METRICS_SCHEMA,PERFORMANCE_SCHEMA,mysql,test
    syncer.ignore-table:           #忽略 checkpoint 表
    - db-name: tidb_binlog
      tbl-name: checkpoint
    syncer.to.host: 192.168.2.1          #下游 TiDB 集群 ip
    syncer.to.port: 4000                 #下游 TiDB 集群 port
    syncer.to.sync-mode: 1
    syncer.to.password: password         #下游用户的密码
    syncer.to.user: drainer_user         #下游用户,需要提前在下游 TiDB 集群创建
    syncer.txn-batch: 200   #将 DML 分批执行,用于设置每个事务中包含多少个 DML
    syncer.worker-count: 4  #指定并发数
  1. 执行下面命令扩容 Drainer
tiup cluster scale-out a_cluster scale_out_drainer.yaml
  1. 查看 Drainer 状态
tiup cluster display a_cluster

4.登录 TiDB 查看 Drainer 状态

show drainer status;

5.2 B 集群部署步骤

【 B 集群部署 Pump 】

  1. 编写 Pump 扩容拓扑配置
vim scale_out_pump.yaml
pump_servers:
- host: 192.168.2.1
  ssh_port: 22
  port: 8250
  deploy_dir: /data/pump-8250
  data_dir: /data/pump-8250/data.pump
  log_dir: /data/pump-8250/log
  config:
    gc: 3
- host: 192.168.2.2
  ssh_port: 22
  port: 8250
  deploy_dir: /data/pump-8250
  data_dir: /data/pump-8250/data.pump
  log_dir: /data/pump-8250/log
  config:
    gc: 3
- host: 192.168.2.3
  ssh_port: 22
  port: 8250
  deploy_dir: /data/pump-8250
  data_dir: /data/pump-8250/data.pump
  log_dir: /data/pump-8250/log
  config:
    gc: 3
  1. 执行下面命令扩容 Pump
tiup cluster scale-out b_cluster scale_out_pump.yaml
  1. 查看 Pump 状态
tiup cluster display b_cluster
  1. 登录 TiDB 查看 Pump 状态
show pump status;

【 B 集群开启 Binlog 】

  1. 编辑 B 集群配置文件开启 Binlog
tiup cluster edit-config b_cluster
server_configs:
  TiDB:
    binlog.enable: true        # 设置为 true 开启 Binlog
    binlog.ignore-error: true  # 建议设置为 true ,否则 Binlog 无法写入时会导致整个集群无法写入数据 
  1. 滚动重启 TiDB-server
tiup cluster reload b_cluster -R TiDB
  1. 确认当前集群是否开启 Binlog
show global variables like 'log_bin'; # 1 表示开启

【 B 配置 Drainer 实现反向复制 】

  1. 编写 Drainer 扩容拓扑配置
vim scale_out_drainer.yaml
drainer_servers:
- host: 192.168.2.1
  ssh_port: 22
  port: 8249
  deploy_dir: /data/drainer-8249
  data_dir: /data/drainer-8249/data
  log_dir: /data/drainer-8249/log
  config:
    syncer.loopback-control: true
    syncer.channel-id: 123456   #互相同步的两个集群配置相同的 ID
    syncer.sync-ddl: false      #不需要同步 DDL 操作
    syncer.db-type: tidb
    syncer.ignore-schemas: INFORMATION_SCHEMA,METRICS_SCHEMA,PERFORMANCE_SCHEMA,mysql,test
    syncer.ignore-table:                 #忽略 checkpoint 表
    - db-name: tidb_binlog
      tbl-name: checkpoint
    syncer.to.host: 192.168.1.1          #下游 TiDB 集群 ip
    syncer.to.port: 4000                 #下游 TiDB 集群 port
    syncer.to.sync-mode: 1
    syncer.to.password: password         #下游用户的密码
    syncer.to.user: drainer_user         #下游用户,需要提前在下游 TiDB 集群创建
    syncer.txn-batch: 200
    syncer.worker-count: 2
  1. 执行下面命令扩容 Drainer
tiup cluster scale-out b_cluster scale_out_drainer.yaml
  1. 查看 Drainer 状态
tiup cluster display b_cluster

4.登录 TiDB 查看 Drainer 状态

show drainer status;

5.3 测试双向复制

我们重点对下面几种场景做了测试:

序号 测试内容 测试结果
1 A 集群数据同步到 B 集群是否正常 正常
2 B 集群数据同步到 A 集群是否正常 正常
3 A 集群 DDL 同步到 B 集群是否正常 正常
4 B 集群 DDL 不能同步到 A 集群 无法同步

6. 线上使用情况

目前线上有3套 TiDB 集群做了跨机房部署,如下表所示:

集群信息 业务说明 跨机房部署说明 运行时间
集群1 短信业务 库级别双向复制 2020/10 — 至今
集群2 用户中心登录注册相关接口 库级别双向复制 2021/05 — 至今
集群3 资源池 集群级别双向复制 2021/05 — 至今

7. 展望

基于 Binlog 的跨机房部署方案运行比较稳定,但是存在一些缺点:并发处理能力不足,无法做到高可用。因此基于 Binlog 的方案目前属于过度方案,我们还是希望不久的将来能够使用基于 TiCDC 的方案替代 Binlog 方案,TiCDC 弥补了上述 Binlog 的不足,也是官方大力开发并支持的方案。

介于目前 TiCDC 的双向同步方案还没正式 GA,而且存在一些问题,例如使用内存较多,同步中断等。值得期待的是,官方正在大力推进测试,应该会在2021年第三季度可以GA。届时,我们将重点进行测试,让我们拭目以待。

0
0
0
0

版权声明:本文为 TiDB 社区用户原创文章,遵循 CC BY-NC-SA 4.0 版权协议,转载请附上原文出处链接和本声明。

评论
暂无评论