0
1
0
0
专栏/.../

ticdc 同步延迟指标与原理解析

 aleibest2020  发表于  2024-11-15

TiCDC 整体指标:

Changefeed checkpoint lag:

  • 同步任务上下游数据的进度差,以时间单位秒计算。如果 TiCDC 消费数据的速度和写入下游的速度能跟上上游的数据变更,该指标将保持在较小的延迟范围内,通常是 10 秒以内。如果 TiCDC 消费数据的速度和写入下游的速度跟不上上游的数据变更,则该指标将持续增长。

image.png

TiCDC checkpoint lag 增长的常见原因如下:             

  • 系统资源不足:如果 TiCDC 系统中的 CPU、内存或磁盘空间不足,可能会导致数据处理速度过慢,从而导致 TiCDC Changefeed checkpoint 过长。             
  • 网络问题:如果 TiCDC 系统中存在网络中断、延迟或带宽不足的问题,可能会影响数据的传输速度,从而导致 TiCDC Changefeed checkpoint 过长。             
  • 上游 QPS 过高:如果 TiCDC 系统需要处理的数据量过大,可能会导致数据处理超时,从而导致 TiCDC Changefeed checkpoint 增长,通常一个 TiCDC 节点处理的 QPS 上限为 60K 左右
image.png

数据库问题:             

  • 上游: TiKV 集群 min resolved ts 和最新的 PD TSO 差距过大,通常是因为上游写入负载过大,TiKV 无法及时推进 resolved ts 造成。           
  • image.png
  • 下游: 数据库写入延迟高导致 TiCDC 无法及时将数据同步到下游。
  • 大事务确认 dashboard ->日志搜索 “BIG_TXN” grafana -> TiDB -> Transaction Write KV NUM
  • image.png
  • 如果TiDB服务器OOM导致锁未释放,这些锁可能会阻塞TiKV节点中的resolve lock过程,进而影响Resolved TS
  • image.png

Changefeed resolved ts lag:

 TiCDC 节点内部同步状态与上游的进度差,以时间单位秒计算。如果 TiCDC Changefeed resolved ts lag 值很高,

  1. 看TiCDC 系统的 Puller 或者 Sorter 模块数据处理能力监控,
  2. 看存在网络延迟或磁盘读写速度慢的问题。在这种情况下,需要采取适当的措施,例如增加 TiCDC 实 例数量 或优化网络配置,以确保 TiCDC 系统的高效和稳定运行。

image.png

resolved ts 的含义和作用:

  • resolved ts 是仅包含时间戳的 event ,收到该 event 表明该时间戳之前行变更都已经发生了,对应的模块放心处理,不用担心数据的完整性,即后面不会有小于该时间的行变更到来由于具备上述的特性,resolved ts 在各个模块里面起到了推动数据流前进的作用
  1. Puller 模块里 resolved ts tikv client 是按照 region 拿到 resolved ts,在 puller 中,会按照表为单位对 resolved ts 进行合并,计算出一表级别的 resolved ts。注意,puer7 88= 的event ,但是会缓存并过滤(合并)或生成新的 resolved tsevent ,这会导sorter 会收到 cormmus>resolved ts 的行变更 event 。对于一张表,理论上,Puller 输出的 resolved ts 是不会发生回退的。下游Sorter 对此有一个 panic 的判断sorter 模块里 resolved tssorter 会按照 ts 所有的 event 进行排序(包含 resolved ts),因此典型排好序的数据如下:table1: event11event12 |resolved ts13|event14 |resolved ts 15| event 16 |event 17这时,对于 table1 最大的 resolved ts为resolved ts15.Redo log 模块里 resolved tsRedo log 模块从 sorter 中取到某个 resolved ts event ,以表为单位将 commit ts 小于该 resolved ts 的数据写入到 S3 中,完成后,更新该表的 resolved ts ,如上例中的 ts13,注意此刻该 resolved ts<= sorter 中的resolved ts .Sink 模块里resolved tssink 模块以 resolved ts 为约束,将该 resolved ts 之前的数据都同步到下游,为了保证一致性,引入了barrier ts 来做全局讲度的约束。sink 模块的 resolved ts 计算方式: min( barrier ts.resolved ts fromsorter)。 其中 barrier ts 的计算方式可参考后面的内容。
  2. Processor 模块里 resolved ts processor 维护了当前节点的 local resolved ts,定期汇报给 owner ,owner汇总后计算出一个全局的global resolved ts。 local resolved ts 的计算的方式为査询当前节点上所有表的 resolved ts,得到最小的resolved ts ,对于每张表,如果开了 redo l0g ,就是redo l0g 维护的 resolved ts ,如果没开,就是 sorter 维护的 resolved ts 。Owner 模块里 resolved tsowner 计算汇总所有的 processor 上报的 local resolved ts,计算得到一个最小的 resolved ts ,即 alobalresolved ts,将该 resolved ts 作为一种 barrierTs,发送给 processor。注意:全局最小的 resolved ts 可能会回退,场景:表发生迁移的时候,会用全局最小的 checkpoint 作为当前表的start ts ,resolved ts = start ts = global checkpoint ts< global resolved ts,此时该节点会重新计算local resolved ts ,根据前面的章节,我们可以得知新计算的得到的local resolved ts< alobal resolved ts,因此 global resolved ts 会发生回退
  3. Barrier tsBarrier ts 产生的目的是产生一个 ts0 ,确保大于该 tso 的数据不能写入到下游,方式是用该 barrier ts 约束每个 Processor 节点上的 resolved ts 推进,即 sink 收到的 resolved ts < barrier ts。Barrier ts 由 owner 周期性产生,经过一系列复杂逻辑的计算(主要确保 resovled ts<barrierts),得到一个全局的 checkpoint ts和 Resolved ts,并将这个值广播给 Processor,Processor 会用 Resolved ts 产生barrier ts,更新所有 table 上的 sorter 和 sink barrier 对应的值。目前有四种情况会产生 Barrierts,分别如下:DDL Barrier tsDDL barrier ts 是由 DDL puller 产生的,DDL puller 会从 tiky 侧接受 DDLevent,为了保证所有committs 大于该 ddl finished ts 的 DML不要先同步到下游,owner 会设置对每个 DDL 设置一个 barrier ts该 ts= ddl finished ts .当所有的表都已经同步到 ddl barrier ts 时,owner 执行 ddl后,更新 ddl barrier ts 为下一个 DDL的finished ts ,这样就达到了上述目的。Sync Point Barries tsSync Point 的工作原理和 DDL 比较类似,可以理解为定时产生一个 DDL,即定时设置一个 barrier ts,让所有的表都同步到该 ts 对齐之后,记录一个时间点,再继续往下同步。说明:DDL& Sync Point 对齐所有表的进度的方式是通过判断 global checkpointts和 barrier ts 的关系来实现的。 DDL& Sync Point 设置了 barrier ts 后,sink 模块会严格限制所有表往下游写的 event 要<=barrier ts,当 global checkpoint ts= barrier ts 时,即表明所有的表中小于 barrier ts 发生的行变更都已经同步到下游了,而且不会有超过 barrier ts 的数据变更同步到下游了,因此该时刻下游处于一致性状态。Redo log Barrier tsRedo log 的作用是让下游恢复成上游的某个 tso 对应的 snapshot,因此会实时计算 min global resolvedts ,并以此 ts 为约束设置 barrier ts ,让所有的 sink不要下推超过此 ts的 event 。这样在恢复的时候,Redo l0g 可以 apply 所有处于(checkpoint ,resolved ts]之间的数据,这样将下游恢复为 global resolved ts对应的 snapshot.
  4. Gobalresolved tsowner 计算所有 processor 上的 resolved ts ,得到一个最小 resolved ts,并设置为 barrier ts,目的是希望能保证所有表都能保持相同的 sink 进度。(该 barrier 在 6.4 版本之后已经去掉)
  • image.png

ticdc 原理回顾:

image.png

为了方便深入了解 Capture 的执行过程,需要理解一些概念:

  • Owner 可以理解为是 TiCDC 集群的 leader 节点,它负责响应用户的请求、调度集群和同步 DDL 等任务。
  • Processo Capture 内部的逻辑线程,一个 Capture 节点中可以运行多个 Processor。
  • Table Pipeline Processor 内部的数据同步管道,每个 TablePipeline 负责处理一张表,表的数据会在这个管道中处理和流转,最后被发送到下游。
  • Changefeed 是由用户启动同步任务,一个同步任务中可能包含多张表,这些表会被 Owner 划分为多个子任务分配到不同的 Capture 进行处理。每个 Processor 负责处理 ChangeFeed 的一个子任 

image.png

TiCDC 的 DML 同步流和 DDL 同步流是分开的。从上面的架构图中可以看到, DML 的同步是由 Processor 进行的,数据流从上游的 TiKV 流入经过 Processor 内的 TablePipeline ,最后被同步到下游。而 DDL 同步则是由 Owner 进行的,OwnerDDLPuller 拉取上游发生的 DDL 事件,然后在内部经过一系列的处理之后,通过 DDLSink 同步到下游。

  • OwnerSchemaStorage:由 Owner 持有,维护了当前所有表最新的 schema 信息,这些表的 schema 信息主要会被 scheduler 所使用,用来感知同步任务的表数量的变化;此外,还会被 owner 用来解析 ddlPuller 拉取到的 DDL 事件。
  • ProcessorSchemaStorage:由 Processor 持有,维护了当前所有表的多个版本的 schema 信息,这些信息会被 Mounter 用来解析行变更信息。
  • BarrierTs:由 Owner 向 Processor 发送的控制信息,它会让 Processor 把同步进度阻塞到 BarrierTs 所指定的值。TiCDC 内部有几种不同类型的 BarrierTs,为了简化叙述,本文中提到的 BarrierTs 仅表示 DDL 事件产生的 DDLBarrierTs。
  • OwnerDDLPuller:由 Owner 持有,负责拉取和过滤上游 TiDB 集群的 DDL 事件,并把它们缓存在一个队列中,等待 Owner 处理;此外,它还会维护一个 ResolvedTs,该值为上游 TiKV 发送过来的最新的 ResolvedTs,在没有 DDL 事件到来的时候,Owner 将会使用它来推进 DDLBirrierTs。
  • ProcessorDDLPuller:由 Processor 持有,负责拉取和过滤上游 TiDB 集群的 DDL 事件,然后把它们发送给 Processor 去更新 ProcessorSchemaStorage。
  • DDLSink:由 Owner 持有,负责执行 DDL 到下游。
  • Table Pipeline每个同步任务,负责同步一张或者多张表,TiCDC 的同步对于单表来说是单线程的,对于多表之间的同步是并行的。对于每个表的处理过程,会放在一个 Table Pipeline 流程内执行完成。TablePipeline 就是一个表数据流动和处理的管道。
  • TiCDC 的 Processor 接收到一个同步子任务之后,会为每一张表自动创建出一个 TablePipeline,它主要由 Puller、Sorter、Mounter 和 Sink 之间是串行的关系,组合在一起完成从上游拉取、排序、加载和同步数据到下游的过程。

image.png

多表同步任务:

假设我们创建一个 Changefeed 任务,要同步 test1.tab1test1.tab2test3.tab3 和 test4.tab4 四张表。TiCDC 接收到这个命令之后的处理流程如下:

  1. TiCDC 将这个任务发送给 Owner Capture 进程。
  2. Owner Capture 进程将这个任务的相关定义信息保存在 PD 的 etcd 中。
  3. Owner Capture 将这个任务拆分成若干个 Task,并通知其他 Capture 进程各个 Task 需要完成的任务。
  4. 各个 Capture 进程开始从对应的 TiKV 节点拉取信息,进行处理后完成同步

image.png

0
1
0
0

声明:本文转载于 pingcap.cn

评论
暂无评论