Java教程

如何为 Databend 添加新的测试

本文主要是介绍如何为 Databend 添加新的测试,对大家解决编程问题具有一定的参考价值,需要的程序猿们随着小编来一起学习吧!

测试是提高软件健壮性、加速迭代进程的不二法宝。本文将会介绍如何为 Databend 添加不同种类的测试。

单元测试

Databend 的单元测试组织形式有别于一般的 Rust 项目,是直接一股脑放在 tests/it 目录下的。同时,在各个 crate 的 Cargo.toml 中,也针对性地禁用了 doctest 和 bin/lib test 。
优点:

  • 减少需要构建的测试目标,提高测试编译/链接速度。
  • 当需要添加新单元测试时(不修改 src),只需要编译对应的 it(test) ,节省时间。

缺点:

  • tests/it 会把需要测试的 crate 当作一个外部对象,所有待测试的内容都需要被设定为 pub 。不利于软件设计上的分层,整个项目结构会迅速的被破坏,需要引入编码规范并更加依赖开发者的主动维护。

编写

可以简单地将单元测试分为两类,一类是不需要外部文件介入的纯 Rust 测试,一类是 Golden Files 测试。
Rust 测试
与平时编写 Rust 单元测试相同,只是待测试的内容需要设为 pub ,且引用待测试 crate 需要使用该 crate 的名字。
Databend 提供一些用于模拟全局状态的函数,如 create_query_context 等,可能会有助于编写测试。

#[tokio::test(flavor = "multi_thread", worker_threads = 1)]
async fn test_credits_table() -> Result<()> {
    let ctx = crate::tests::create_query_context().await?;

    let table = CreditsTable::create(1);
    let source_plan = table.read_plan(ctx.clone(), None).await?;

    let stream = table.read(ctx, &source_plan).await?;
    let result = stream.try_collect::<Vec<_>>().await?;
    let block = &result[0];
    assert_eq!(block.num_columns(), 3);
    Ok(())
}

上面示例来自 credits_table 的测试,先构建 read_plan 读取新建的 CreditsTable 表,再对列数进行断言。
Golden Files 测试

Golden File Testing are like unit tests, except the expected output is stored in a separate file. – Max Grigorev at ZuriHac

Golden Files 测试是一种常用的测试手段,相当于是一类快照测试,如果执行情况和预期结果存在差异则认为测试失败。
Databend 使用 goldenfile 这个 crate 来编写 Golden Files 测试。目前 Databend 有计划用此替代 assert_blocks 系列断言

#[test]
fn test_expr_error() {
    let mut mint = Mint::new("tests/it/testdata");
    let mut file = mint.new_goldenfile("expr-error.txt").unwrap();

    let cases = &[
        r#"5 * (a and ) 1"#,
        r#"a + +"#,
        r#"CAST(col1 AS foo)"#,
        r#"1 a"#,
        r#"CAST(col1)"#,
        r#"G.E.B IS NOT NULL AND
            col1 NOT BETWEEN col2 AND
                AND 1 + col3 DIV sum(col4)"#,
    ];

    for case in cases {
        run_parser!(file, expr, case);
    }
}

编写 Golden Files 测试时需要指定挂载的目录和对应预期结果的文件。

在执行测试的主体部分(如上面示例中的 run_parser! 宏),除了封装运行测试的必要逻辑外,还需要定义输出时的格式。

测试文件必须按指定格式编写。或者,使用 REGENERATE_GOLDENFILES=1 生成。

下面 Golden File 的例子节选自 common/ast 模块测试的 testdata/expr-error.txt,Output 对应解析 5 * (a and ) 1 的预期结果。

---------- Input ----------
5 * (a and ) 1
---------- Output ---------
error: 
  --> SQL:1:12
  |
1 | 5 * (a and ) 1
  | -          ^ expected more tokens for expression
  | |           
  | while parsing expression

运行

单元测试的运行可以运行 make unit-test 或者是 cargo test --workspace 。
二者的区别在于 make unit-test 封装了 ulimit 命令控制最大文件数和栈的大小以确保测试能够顺利运行,如果使用 MacOS 则更建议使用 make unit-test 。
通过过滤机制,可以轻松指定运行名字中具有特定内容的测试,例如 cargo test test_expr_error 。

排查

Rust 测试
同其他项目中的 Rust 测试一样,可以根据友好的错误提示轻松定位出现故障的测试。如果需要详细的 Backtrace ,可以在运行测试命令时添加环境变量 RUST_BACKTRACE=1。

failures:

---- buffer::buffer_read_number_ext::test_read_number_ext stdout ----
Error: Code: 1046, displayText = Cannot parse value:[] to number type, cause: lexical parse error: 'the string to parse was empty' at index 0.

<Backtrace disabled by default. Please use RUST_BACKTRACE=1 to enable> 
thread 'buffer::buffer_read_number_ext::test_read_number_ext' panicked at 'assertion failed: `(left == right)`
  left: `1`,
 right: `0`: the test returned a termination value with a non-zero status code (1) which indicates a failure', /rustc/cd282d7f75da9080fda0f1740a729516e7fbec68/library/test/src/lib.rs:185:5
note: run with `RUST_BACKTRACE=1` environment variable to display a backtrace

Golden Files 测试
Golden Files 测试的执行命令与 Rust 测试相同,但在错误提示方面有所差异。得益于 goldenfiles 引入了 similar-assert ,可以轻松识别 diff :

Differences (-left|+right):
 ---------- Output ---------
 'I'm who I'm.'
 ---------- AST ------------
 Literal {
     span: [
-        QuotedString(0..18),
+        QuotedString(0..16),
     ],
     lit: String(
         "I'm who I'm.",
     ),
 }
.cargo/git/checkouts/rust-goldenfile-6352648ef139d984/16c5783/src/differs.rs:15:5
note: run with `RUST_BACKTRACE=1` environment variable to display a backtrace
上面示例中,+ 对应测试实际结果,- 对应测试预期结果,其他为相关的上下文。

上面示例中,+ 对应测试实际结果,- 对应测试预期结果,其他为相关的上下文。
goldenfiles 的报错可能会涉及多个测试文件,受限于长文本支持和空格显示,排查仍可能存在不便。
这里提供一个相对友好的排查思路:

  1. 确保之前的更改都已经提交,然后运行 REGENERATE_GOLDENFILES=1 cargo test -p --test it 重新生成对应的测试。
  2. 执行 git diff 来显示前后 goldenfiles 文件的差异。
  3. 仔细辨别问题出现原因,确定是否存在预期外的问题。

功能测试

功能测试暂时出现两种方案并行的情况,除了旧有的 stateless/stateful 测试方案外,还引入了全新的 SQL 逻辑测试,后续 stateless 测试会过渡到 SQL 逻辑测试上。从本质上讲,这两类功能测试流程相同:

  • 启动 databend 实例。
  • 使用对应的客户端/驱动执行查询。
  • 对比查询情况和预期行为之间的差异,判断测试是否通过。

但是,在设计上,SQL 逻辑测试可以提供更全面的能力:

  • 拓展比较结果文件的方式到其他协议(涵盖 http handler)。
  • 提示每个语句的结果。
  • 提供错误处理的能力。
  • 支持排序、重试等测试逻辑。

编写

stateless/stateful 测试

stateless/stateful 测试放在 tests/suites 目录下:

  • 输入是一系列 sql 语句,对应目录中的 *.sql 文件。
SELECT '==Array(Int32)==';

CREATE TABLE IF NOT EXISTS t2(id Int null, arr Array(Int32) null) Engine = Fuse;

INSERT INTO t2 VALUES(1, [1,2,3]);
INSERT INTO t2 VALUES(2, [1,2,4]);
INSERT INTO t2 VALUES(3, [3,4,5]);
SELECT max(arr), min(arr) FROM t2;
SELECT arg_max(id, arr), arg_min(id, arr) FROM (SELECT id, arr FROM t2);
  • 输出对应查询结果(含报错),如果没有输出则需要置空,对应目录中的 *.result 文件。
==Array(Int32)==
[3, 4, 5] [1, 2, 3]
3 1

测试可以覆盖 SQL 执行过程中遇到预期错误的情况,有两种方式:

  • 沿用上面的方法,在 result 文件中标注具体报错信息。
  • 也可以采用 ErrorCode 注释的方式,此时无需在 result 文件中添加对应内容。
SELECT INET_ATON('hello');-- {ErrorCode 1060}

SQL 逻辑测试
SQL 逻辑测试放在 tests/logictest 目录下。语句规范在 sqlite sqllogictest 的基础上进行拓展,可以分成以下几类:

  • statement ok :SQL 语句正确,且成功执行。
  • statement error :SQL 语句输出期望的错误。
  • statement query <desired_query_schema_type> :SQL语句成功执行并输出预期结果。
statement query B label(mysql,http)
select count(1) > 1 from information_schema.columns;

----  mysql
1

----  http
true

上面的例子展示了如何对 mysql 和 http 分别设计对应的输出结果。其中 B 表示结果为布尔类型,label 用来标记协议。SQL 逻辑测试同样支持测试集生成 python3 gen_suites.py 。

运行

由于 stateless/stateful 测试和 sqllogictest 测试均由 Python 编写,在运行前请确保你已经安装全部的依赖。

这几类测试都有对应的 make 命令,并支持集群模式测试:

  • stateless 测试:make stateless-test & make stateless-cluster-test 。
  • stateful 测试:make stateful-test & make stateful-cluster-test 。(一般在 CI 中运行,本地需要正确配置 MINIO 环境)。
  • sqllogictest 测试:make sqllogic-test & make sqllogic-cluster-test 。

排查

stateless/stateful 测试

目前 stateless/stateful 测试能够提供文件级的报错和 diff ,但无法确定报错是由哪一条语句产生。

02_0057_function_nullif:                                                [ FAIL ] - result differs with:
--- /projects/datafuselabs/databend/tests/suites/0_stateless/02_function/02_0057_function_nullif.result
+++ /projects/datafuselabs/databend/tests/suites/0_stateless/02_function/02_0057_function_nullif.stdout
@@ -3,7 +3,7 @@
 1
 1
 NULL
-a
+b
 b
 a
 NULL

Having 1 errors! 207 tests passed.                     0 tests skipped.
The failure tests:
    /projects/datafuselabs/databend/tests/suites/0_stateless/02_function/02_0057_function_nullif.sql

sqllogictest 测试
sqllogictest 测试能提供精准到语句的报错,并提供更多有效的上下文帮助排查问题。

AssertionError: Expected:
INFORMATION_SCHEMA
default
 Actual:
  INFORMATION_SCHEMA
          db_12_0003
             default
 Statement:
Parsed Statement
    at_line: 77,
    s_type: Statement: query, type: T, query_type: T, retry: False,
    suite_name: gen/02_function/02_0005_function_compare,
    text:
        select * from system.databases where name not like '%sys%' order by name;
    results: [(<re.Match object; span=(0, 4), match='----'>, 83, 'INFORMATION_SCHEMA\ndefault')],
    runs_on: {'mysql', 'clickhouse', 'http'},
 Start Line: 83, Result Label: 
make: *** [Makefile:82: sqllogic-test] Error 1

提示

  • stateless/stateful 超时类错误(Timeout!)的默认时间限制为 10 分钟。为方便排查,可以将 databend-test 文件中的 timeout 改短。
  • 移除 databend-query-standalone-embedded-meta.sh 等脚本中的 nohup 有助于在测试时同时输出日志到终端,可能同样有助于排查。
这篇关于如何为 Databend 添加新的测试的文章就介绍到这儿,希望我们推荐的文章对大家有所帮助,也希望大家多多支持为之网!