C/C++教程

TiFlink:使用 TiKV 和 Flink 实现强一致的物化视图丨TiDB Hackathon 项目分享

本文主要是介绍TiFlink:使用 TiKV 和 Flink 实现强一致的物化视图丨TiDB Hackathon 项目分享,对大家解决编程问题具有一定的参考价值,需要的程序猿们随着小编来一起学习吧!

编者按:

本文为 TiDB Hackathon 2020 比赛中 TiFlink 项目最新进展的介绍,使用 TiKV 和 Flink 实现了强一致的物化视图的功能。

作者张茄子,算法、分布式技术和函数式编程爱好者。个人博客:https://io-meter.com/

在本年初的 TiDB Hackathon 上,我和一众队友尝试使用 Flink 为 TiDB 添加物化视图功能,并摘得了 “最佳人气奖”。可以说,物化视图在这届比赛中可谓是一个热点。单单是结合 Flink 实现相关功能的队伍就有三四个。必须承认的是,在比赛结束时我们项目的完成度很低,虽然基本思路已经定型,最终呈现的结果却远没达到预期。经过半年多断断续续的修补,在今天终于可以发布一个预览版本给大家试用。这篇文章就是对我们思路和成果的一个介绍。
相比其他队伍,我们的主要目标是实现强一致的物化视图构建。也就是保证查询时的物化视图可以达到接近快照隔离(Snapshot Isolation)的隔离级别,而不是一般流处理系统的最终一致性(Eventual Consistency)。关于实现一致性的讨论在下文有详细介绍。

使用简介

尽管是一个实验性的项目,我们仍然探索了一些方便实用的特性,包括:

零外部依赖:除了 TiDB 集群和 Flink 部署环境之外,无需维护任何其他组件(包括 Kafka 集群和 TiCDC)。这是因为 TiFlink 直接从 TiKV 读写数据,不经过任何中间层,为更高吞吐、更低延迟和更易维护创造了可能。

易用的接口:尽管为了实现强一致性 TiFlink 引进了一些新的概念,但是通过特别编写的TiFlinkApp 接口,用户可以快速启动一个任务,也无需手动创建写入目标表。

批流结合:任务启动后会先批量消费源表当前已有的数据,随后自动切换到 CDC 日志消费。这个过程也会确保视图的一致性。

关于 TiFlink 实用的详细信息,请参考 README。下面是快速启动一个任务的代码片段:

TiFlinkApp.newBuilder()   .setJdbcUrl("jdbc:mysql://root@localhost:4000/test") // Please make sure the user has correct permission   .setQuery(       "select id, "           + "first_name, "           + "last_name, "           + "email, "           + "(select count(*) from posts where author_id = authors.id) as posts "           + "from authors")   // .setColumnNames("a", "b", "c", "d") // Override column names inferred from the query   // .setPrimaryKeys("a") // Specify the primary key columns, defaults to the first column   // .setDefaultDatabase("test") // Default TiDB database to use, defaults to that specified by JDBC URL   .setTargetTable("author_posts") // TiFlink will automatically create the table if not exist   // .setTargetTable("test", "author_posts") // It is possible to sepecify the full table path   .setParallelism(3) // Parallelism of the Flink Job   .setCheckpointInterval(1000) // Checkpoint interval in milliseconds. This interval determines data refresh rate   .setDropOldTable(true) // If TiFlink should drop old target table on start   .setForceNewTable(true) // If to throw an error if the target table already exists   .build()   .start(); // Start the app

物化视图(流处理系统)的一致性

目前主流的物化视图(流处理)系统主要使用最终一致性。也就是说尽管最终结果会收敛到一致的状态,但在处理期间终端用户仍可能查询到一些不一致的结果。最终一致性在很多应用中被证明是足够的,那么更强的一致性是否真的需要呢?这里的一致性和 Flink 的 Exact Once 语义又有什么关系呢?有必要进行一些介绍。

ACID

ACID 是数据库的一个基本的概念。一般来说,作为 CDC 日志来源的数据库已经保证了这四条要求。但是在使用 CDC 数据进行流式处理的时候,其中的某些约束却有可能被破坏。
最典型的情况是失去 Atomic 特性。这是因为在 CDC 日志中,一个事务的修改可能覆盖多条记录,流处理系统如果以行为单位进行处理,就有可能破坏原子性。也就是说,在结果集上进行查询的用户看到的事务是不完整的。
一个典型的案例如下:

Table_ACID.jpg
Change Log 与事务的原子性

在上述案例中,我们有一个账户表,账户表之间会有转账操作,由于转账操作涉及多行修改,因此往往会产生多条记录。假设我们有如下一条 SQL 定义的物化视图,计算所有账户余额的总和:

SELECT SUM(balance) FROM ACCOUNTS;

显然,如果我们只存在表内账户之间的转账,这个查询返回的结果应该恒为某一常数。但是由于目前一般的流处理系统不能处理事务的原子性,这条查询产生的结果却可能是不断波动的。实际上,在一个不断并发修改的源表上,其波动甚至可能是无界的。

尽管在最终一致的模型下,上述查询的结果在经过一段时间之后将会收敛到正确值,但没有原子性保证的物化视图仍然限制的应用场景:假设我想实现一个当上述查询结果偏差过大时进行报警的工具,我就有可能会接收到很多虚假报警。也就是说此时在数据库端并没有任何异常,数值的偏差只是来源于流处理系统内部。
在分布式系统中,还有另一种破坏原子性的情况,就是当一个事务修改产生的副作用分布在多个不同的节点处。如果在这时不使用 2PC 等方法进行分布式提交,则也会破坏原子性:部分节点(分区)上的修改先于其他节点生效,从而出现不一致。

线性一致性

不同于由单机数据库产生的 CDC 日志(如 MySQL 的 Binlog),TiDB 这类分布式数据库产生的日志会有线性一致性的问题。在我们的场景下,线性一致性的问题可以描述为:从用户的角度先后执行的一些操作,其产生的副作用(日志)由于消息系统传递的延迟,以不同的先后顺序被流处理系统处理。
假设我们有订单表(ORDERS)和付款信息表(PAYMENTS)两个表,用户必须先创建订单才能进行支付,因此下列查询的结果必然是正数:

WITH order_amount AS (SELECT SUM(amount) AS total FROM ORDERS),WITH payment_amount AS (SELECT SUM(amount) AS total FROM PAYMENTS)SELECT order_amount.total - payment_amount.totalFROM order_amount, payment_amount;

但是由于 ORDERS 表和 PAYMENTS 表在分别存储在不同的节点上,因此流处理系统消费他们的速度可能是不一致的。也就是说,流处理系统可能已经看到了支付信息的记录,但是其对应的订单信息还没到达。因此就可能观察到上述查询出现负数的结果。

在流处理系统中,有一个 Watermark 的概念可以用来同步不同表的数据的处理进度,但是它并不能避免上述线性一致性问题。这是因为 Watermark 只要求时间戳小于其的所有记录都已经到达,不要求时间戳大于其的记录都没有到达。也就是说,尽管 ORDERS 表和 PAYMENTS 表现在拥有相同的 Watermark,后者仍然可能会有一些先到的记录已经生效。
由此可见,单纯依靠 Watermark 本身是无法处理线性一致性问题的,必须和源数据库的时间产生系统和消息系统配合。

更强一致性的需求

尽管最终一致性在很多场景下是够用的,但其依然存在很多问题:

  1. 误导用户:由于很多用户并不了解一致性相关的知识,或者对其存在一定的误解,导致其根据尚未收敛的查询结果做出了决策。这种情况在大部分关系型数据库都默认较强一致性的情况下是应该避免的。

  2. 可观测性差:由于最终一致性并没有收敛时间的保证,再考虑到线性一致性问题的存在,很难对流处理系统的延迟、数据新鲜度、吞吐量等指标进行定义。比如说用户看到的 JOIN 的结果可能是表 A 当前的快照和表 B 十分钟前的快照联接的结果,此时应如何定义查询结果的延迟度呢?

  3. 限制了部分需求的实现:正如上文所提到的,由于不一致的内部状态,导致某些告警需求要么无法实现,要么需要延迟等待一段时间。否则用户就不得不接受较高的误报率。

实际上,更强一致性的缺乏还导致了一些运维操作,特别是 DDL 类的操作难以利用之前计算好的结果。参考关系型数据库和 NoSQL 数据库的发展历史,我们相信目前主流的最终一致性只是受限于技术发展的权宜之计,随着相关理论和技术研究的进步,更强的一致性将会慢慢成为流处理系统的主流。

技术方案简介

这里详细介绍一下 TiFlink 在技术方案上的考虑,以及如何实现了强一致的物化视图(StreamSQL)维护。

TiKV 和 Flink

尽管这是一个 TiDB Hackthon 项目,因此必然会选择 TiDB/TiKV 相关的组件,但是在我看来 TiKV 作为物化视图系统的中间存储方案具备很多突出的优势:

  1. TiKV 是一个比较成熟分布式 KV 存储,而分布式环境是下一代物化视图系统必须要支持的场景。利用 TiKV 配套的 Java Client,我们可以方便的对其进行操作。同时 TiDB 本身作为一个 HTAP 系统,正好为物化视图这个需求提供了一个 Playground。

  2. TiKV提供了基于 Percolator 模型的事务支持和 MVCC,这是 TiFlink 实现强一致流处理的基础。在下文中可以看到,TiFlink 对 TiKV 的写入主要是以接连不断的事务的形式进行的。

  3. TiKV 原生提供了对 CDC 日志输出的支持。实际上 TiCDC 组件正是利用这一特性实现的 CDC 日志导出功能。在 TiFlink 中,为了实现批流一体并简化系统流程,我们选择直接调用 TiKV 的 CDC GRPC 接口,因此也放弃了 TiCDC 提供的一些特性。

我们最初的想法本来是直接将计算功能集成进 TiKV,选择 Flink 则是在比赛过程中进一步思考后得到的结论。选择 Flink 的主要优势有:

  1. Flink 是目前市面上最成熟的 Stateful 流处理系统,其对处理任务的表达能力强,支持的语义丰富,特别是支持批流一体的 StreamSQL 实现,是我们可以专心于探索我们比较关注的功能,如强一致性等。

  2. Flink 比较完整的 Watermark,而我们发现其基于 Checkpoint 实现的 Exactly Once Delivery 语义可以很方便地和 TiKV 结合来实现事务处理。实际上,Flink 自己提供的一些支持 Two Phase Commit 的 Sink 就是结合 Checkpoint 来进行提交的。

  3. Flink 的流处理(特别是 StreamSQL)本身就基于物化视图的理论,在比较新的版本开始提供的 DynamicTable 接口,就是为了方便将外部的 Change Log 引入系统。它已经提供了对 INSERT、DELETE、UPDATE 等多种 CDC 操作的支持。

当然,选择 TiKV+Flink 这样的异构架构也会引入一些问题,比如 SQL 语法的不匹配,UDF 无法共享等问题。在 TiFlink 中,我们以 Flink 的 SQL 系统和 UDF 为准,将其作为 TiKV 的一个外挂系统使用,但同时提供了方便的建表功能。
强一致的物化视图的实现思路

这一部分将介绍 TiFlink 如何在 TiDB/TiKV 的基础上实现一个比较强的一致性级别:延迟快照隔离(Stale Snapshot Isolation)。在这种隔离级别下,查询者总是查询到历史上一个一致的快照状态。在传统的快照隔离中,要求查询者在 T时间能且只能观察到 Commit 时间小于 T 的所有事务。而延迟快照隔离只能保证观察到 T−Δt 之前所有已提交的事务。
在 TiDB 这样支持事务的分布式数据库上实现强一致的物化视图,最简单的思路就是使用一个接一个的事务来更新视图。事务在开始时读取到的是一个一致的快照,而使用分布式事务对物化视图进行更新,本身也是一个强一致的操作,且具有 ACID 的特性,因此得以保证一致性。

Transaction_To_MV.jpg
使用连续事务更新物化视图

为了将 Flink 和这样的机制结合起来且实现增量维护,我们利用了 TiKV 本身已经提供的一些特性:

  1. TiKV 使用 Time Oracle 为所有的操作分配时间戳,因此虽然是一个分布式系统,其产生的 CDC 日志中的事务的时间戳实际上是有序的。

  2. TiKV 的节点(Region)可以产生连续不断的增量日志(Change Log),这些日志包含了事务的各种原始信息并包含时间戳信息。

  3. TiKV 的增量日志会定期产生 Resolved Timestamp,声明当前 Region 不再会产生时间戳更老的消息。因此很适合用来做 Watermark。

  4. TiKV 提供了分布式事务,允许我们控制一批修改的可见性。

因此 TiFlink 的基本实现思路就是:

  1. 利用流批一体的特性,以某全局时间戳对源表进行快照读取,此时可以获得所有源表的一个一致性视图。

  2. 切换到增量日志消费,利用 Flink 的 DynamicTable 相关接口,实现物化视图的增量维护和输出。

  3. 以一定的节奏 Commit 修改,使得所有的修改以原子的事务方式写入目标表,从而为物化视图提供一个又一个更新视图。

以上几点的关键在于协调各个节点一起完成分布式事务,因此有必要介绍一下 TiKV 的分布式事务执行原理。

TiKV 的分布式事务

TiKV 的分布式事务基于著名的 Percolator 模型。Percolator 模型本身要求存储层的 KV Store 有 MVCC 的支持和单行读写的原子性和乐观锁(OCC)。在此基础上它采用以下步骤完成一次事务:

  1. 指定一个事务主键(Primary Key)和一个开始时间戳并写入主键。

  2. 其他行在 Prewrite 时以副键(Secondary Key)的形式写入,副键会指向主键并具有上述开始时间戳。

  3. 在所有节点 Prewrite 完成后,可以提交事务,此时应先 Commit 主键,并给定一个 Commit 时间戳。

  4. 主键 Commit 成功后事务实际上已经提交成功,但此时为了方便读取,可以多节点并发地对副键进行 Commit 并执行清理工作,之后写入的行都将变为可见。

上述分布式事务之所以可行,是因为对主键的 Commit 是原子的,分布在不同节点的副键是否提交成功完全依赖于主键,因此其他的读取者在读到 Prewrite 后但还没 Commit 的行时,会去检查主键是否已 Commit。读取者也会根据 Commit 时间戳判断某一行数据是否可见。Cleanup 操作如果中途故障,在之后的读取者也可以代行。
为了实现快照隔离,Percolator 要求写入者在写入时检查并发的 Prewrite 记录,保证他们的时间戳符合一定的要求才能提交事务。本质上是要求写入集重叠的事务不能同时提交。在我们的场景中假设物化视图只有一个写入者且事务是连续的,因此无需担心这点。
在了解了 TiKV 的分布式事务原理之后,要考虑的就是如何将其与 Flink 结合起来。在 TiFlink 里,我们利用 Checkpoint 的机制来实现全局一致的事务提交。

使用 Flink 进行分布式事务提交

从上面的介绍可以看出,TiKV 的分布式事务提交可以抽象为一次 2PC。Flink 本身有提供实现2PC 的 Sink,然而并不能直接用在我们的场景下。原因是 Percolator 模型在提交时需要有全局一致的事务开始时间戳和提交时间戳。而且仅仅是在 Sink 端实现 2PC 是不足以实现强一致隔离级别的:我们还需要在 Source 端配合,使得每个事务恰好读入所需的增量日志。
幸运的是,Flink 的 2PC 提交机制实际上是由 Checkpoint 驱动的:当 Sink 接收到 Checkpoint 请求时,会完成必要的任务以进行提交。受此启发,我们可以实现一对 Source 和 Sink,让他们使用 Checkpoint 的 ID 共享 Transaction 的信息,并配合 Checkpoint 的过程完成 2PC。而为了使不同节点可以对事务的信息(时间戳,主键)等达成一致,需要引入一个全局协调器。事务和全局协调器的接口定义如下:

public interface Transaction {  public enum Status {    NEW,    PREWRITE,    COMMITTED,    ABORTED;  };  long getCheckpointId();  long getStartTs();  default long getCommitTs();  default byte[] getPrimaryKey();  default Status getStatus();}public interface Coordinator extends AutoCloseable, Serializable {  Transaction openTransaction(long checkpointId);  Transaction prewriteTransaction(long checkpointId, long tableId);  Transaction commitTransaction(long checkpointId);  Transaction abortTransaction(long checkpointId);}

使用上述接口,各个 Source 和 Sink 节点可以使用 CheckpointID 开启事务或获得事务 ID,协调器会负责分配主键并维护事务的状态。为了方便起见,事务 Commit 时对主键的提交操作也放在协调器中执行。协调器的实现有很多方法,目前 TiFlink 使用最简单的实现:在 JobManager 所在进程中启动一个 GRPC 服务。基于 TiKV 的 PD(ETCD)或 TiKV 本身实现分布式的协调器也是可能的。

TiFlink_transaction_management.jpg
事务与 Checkpoint 的协调执行

上图展示了在 Flink 中执行分布式事务和 Checkpoint 之间的协调关系。一次事务的具体过程如下:

  1. Source 先从 TiKV 接收到增量日志,将他们按照时间戳 Cache 起来,等待事务的开始。

  2. 当 Checkpoint 进程开始时,Source 会先接收到信号。在 Source 端的 Checkpoint 与日志接收服务运行在不同的线程中。

  3. Checkpoint 线程先通过全局协调器获得当前事务的信息(或开启一个新事务),分布式情况下一个 CheckpointID 对应的事务只会开启一次。

  4. 得到事务的开始时间戳后,Source 节点开始将 Cache 中小于此时间戳的已提交修改 Emit 到下游计算节点进行消费。此时 Source 节点也会 Emit 一些 Watermark。

  5. 当所有 Source 节点完成上述操作后,Checkpoint 在 Source 节点成功完成,此后会向后继续传播,根据 Flink 的机制,Checkpoint 在每个节点都会保证其到达之前的所有 Event 都已被消费。

  6. 当 Checkpoint 到达 Sink 时,之前传播到 Sink 的 Event 都已经被 Prewrite 过了,此时可以开始事务的提交过程。Sink 在内部状态中持久化事务的信息,以便于错误时恢复,在所有 Sink 节点完成此操作后,会在回调中调用协调器的 Commit 方法从而提交事务。

  7. 提交事务后,Sink 会启动线程进行 Secondary Key 的清理工作,同时开启一个新的事务。

注意到,在第一个 Checkpoint 开始前,Sink 可能已经开始接收到写入的数据了,而此时它还没有事务的信息。为了解决这一问题,TiFlink在任务开始时会直接启动一个初始事务,其对应的 CheckpointID 是 0,用于提交最初的一些写入。这样的话,在 CheckpointID=1 的 Checkpoint 完成时,实际上提交的是这个 0 事务。事务和 Checkpoint 以这样的一种错位的方式协调执行。
下图展示了包含协调器在内的整个 TiFlink 任务的架构:

TiFlink_System_Design.jpg
TiFlink 的系统架构

基于以上的系统设计,我们就得到了一个在 TiKV 上实现延迟快照隔离的物化视图。

其他设计考虑

众所周知,KSQL 是 Flink 之外另一个流行的流处理系统,它直接与 Kafka 消息队列系统结合,用户无需部署两套处理系统,因此受到一些用户的青睐。很多用户也使用 KSQL 实现类似物化视图这样的需求。然而在我看来,这种强耦合于消息队列的流处理系统并不适合物化视图的使用场景。
KSQL 可以说是 Log Oriented 数据处理系统的的代表,在这种系统中,数据的本源在于日志信息,所有的表都是为了方便查询而消费日志信息从而构建出来的视图。这种系统具有模型简单、容易实现、可以长时间保存日志记录等优点。
与之相对是 Table Oriented 数据处理系统,MySQL、TiDB/TiKV 都属于这一类系统。这一类系统的所有修改操作都作用于表数据结构,虽然期间也会有日志生成,但往往对表数据结构和日志的修改是一起协调进行的。这里日志的主要是为持久化和事务服务,往往不会留存太长时间。相比于 Log Oriented 数据处理系统,这类系统对写入和事务的处理都更为复杂一点,然而却拥有更强可扩展性的要求。
归根结底,这是因为 Log Oriented 系统中的数据是以日志的形式存储,因此在扩展时往往需要进行成本较高的 Rehash,也更难实现再平衡。而 Table Oriented 的系统,数据主要以表的形式存储,因此可以以某些列进行有序排列,从而方便在一致性 Hash 的支持下实现 Range 的切分、合并和再平衡。
个人认为,在批流一体的物化视图场景下,长时间保存日志并无太大的意义(因为总是可以从源表的快照恢复数据)。相反,随着业务的发展不断扩展数据处理任务和视图是一件比较重要的事。从这个角度来看 Table Oriented 系统似乎更适合作为物化视图需求的存储承载介质。
当然,在实时消费增量 Log 时发生的分区合并或分裂是一个比较难处理的问题。TiKV 在这种情况下会抛出一个 GRPC 错误。TiFlink 目前使用的是比较简单的静态映射方法处理任务和分区之间的关系,在未来可以考虑更为合理的解决方案。

总结

本文介绍了使用 Flink 在 TiKV 上实现强一致的物化视图的基本原理。以上原理已经基本上在 TiFlink 系统中实现,欢迎各位读者试用。以上所有的讨论都基于 Flink 的最终一致模型的保证,即:流计算的结果只与消费的 Event 和他们在自己流中的顺序有关,与他们到达系统的顺序以及不同流之间的相对顺序无关。

目前的 TiFlink 系统还有很多值得提高的点,如:

  • 支持非 Integer 型主键和联合主键
  • 更好的 TiKV Region 到 Flink 任务的映射
  • 更好的 Fault Tolerance 和任务中断时 TiKV 事务的清理工作
  • 完善的单元测试

如果各位读者对 TiFlink 感兴趣的话,欢迎试用并提出反馈意见,如果能够贡献代码帮助完善这个系统那就再好不过了。

关于物化视图系统一致性的思考是我今年最主要的收获之一。实际上,最初我们并没有重视这一方面,而是在不断地交流当中才认识到这是一个有价值且很有挑战性的问题。通过 TiFlink 的实现,可以说是基本上验证了上述方法实现延迟快照一致性的可行性。当然,由于个人的能力水平有限,如果存在什么纰漏,也欢迎各位提出讨论。

最后,如果我们假设上述延迟快照一致性的论述是正确的,那么实现真正的快照隔离的方法也就呼之欲出。不知道各位读者能否想到呢?

这篇关于TiFlink:使用 TiKV 和 Flink 实现强一致的物化视图丨TiDB Hackathon 项目分享的文章就介绍到这儿,希望我们推荐的文章对大家有所帮助,也希望大家多多支持为之网!