使用 Stream Load 事务接口导入
为了支持和 Apache Flink®、Apache Kafka® 等其他系统之间实现跨系统的两阶段提交,并提升高并发 Stream Load 导入场景下的性能,StarRocks 自 2.4 版本起提供 Stream Load 事务接口。
从 v4.0 版本开始,Stream Load 事务接口支持多表事务,即向同一数据库内的多个表导入数据。
本文介绍 Stream Load 事务接口、以及如何使用该事务接口把数据导入到 StarRocks 中。
接口说明
Stream Load 事务接口支持通过兼容 HTTP 协议的工具或语言发起接口请求。本文以 curl 工具为例介绍如何使用该接口。该接口提供事务管理、数据写入、事务预提交、事务去重和超时管理等功能。
Stream Load 支持导入 CSV 和 JSON 格式的数据,并且建议在导入的数据文件数量较少、单个数据文件的大小不超过 10 GB 时使用。Stream Load 不支持 Parquet 文件格式。如果要导入 Parquet 格式的数据,请使用 INSERT+files().
事务管理
提供如下标准接口,用于管理事务:
-
/api/transaction/begin:开启一个新事务。 -
/api/transaction/prepare: 预提交当前事务并使数据更改暂时持久化。预提交事务后,您可以继续提交或回滚该事务。如果集群在事务预提交后发生故障,您仍可在集群恢复后继续提交该事务。 -
/api/transaction/commit:提交当前事务,持久化变更。 -
/api/transaction/rollback:回滚当前事务,回滚变更。
说明
在事务预提交以后,请勿继续写入数据。继续写入数据的话,写入请求会报错。
下图展示了事务状态与操作之间的关系:
stateDiagram-v2
direction LR
[*] --> PREPARE : begin
PREPARE --> PREPARED : prepare
PREPARE --> ABORTED : rollback
PREPARED --> COMMITTED : commit
PREPARED --> ABORTED : rollback
数据写入
提供 /api/transaction/load 接口,用于写入数据。您可以在同一个事务中多次调用该接口来写入数据。
从 v4.0 版本开始,您可以在不同表上调用 /api/transaction/load 操作,将数据导入到同一数据库中的多个表中。
事务去重
复用 StarRocks 现有的标签机制,通过标签绑定事务,实现事务的 “至多一次 (At-Most-Once)” 语义。
超时管理
当开始事务时,您可以使用 HTTP 请求 Header 中的 timeout 字段来指定从 PREPARE 状态到 PREPARED 状态的超时时间(以秒为单位)。如果在此时间段内事务未完成准备,将自动取消该事务。如果未指定此字段,默认值由 FE 配置 stream_load_default_timeout_second 决定(默认:600 秒)。
当开始事务时,您还可以通过HTTP请求 Header 中的 idle_transaction_timeout 字段指定事务可保持空闲状态的超时时间(以秒为单位)。若在此期间内未写入任何数据,该事务将被自动回滚。
在预提交事务时,您可以通过 HTT P请求 Header 中的 prepared_timeout 字段指定事务从 PREPARED 状态转换为 COMMITTED 状态 的超时时间(以秒为单位)。如果在此时间段内事务未完成提交,系统将自动取消该事务。如果未指定此字段,默认值由 FE 配置 prepared_transaction_default_timeout_second 决定(默认:86400 秒)。prepared_timeout 自 v3.5.4 版本起支持。
接口优势
Stream Load 事务接口具有如下优势:
-
Exactly-Once 语义
通过“预提交事务”、“提交事务”,方便实现跨系统的两阶段提交。例如配合在 Flink 实现“精确一次 (Exactly-Once)”语义的导入。
-
提升导入性能
在通过程序提交 Stream Load 作业的场景中,Stream Load 事务接口允许在一个导入作业中按需合并发送多次小批量的数据后“提交事务”,从而能减少数据导入的版本,提升导入性能。
使用限制
事务接口当前具有如下使用限制:
-
从 v4.0 版本起支持单库多表事务。未来将会支持跨库多表事务。
-
只支持单客户端并发数据写入,未来将会支持多客户端并发数据写入。
-
支持在单个事务中多次调用数据写入接口
/api/transaction/load来写入数据,但是要求所有/api/transaction/load接口中的参数设置(除table外)必须保持一致。 -
导入 CSV 格式的数据时,需要确保每行数据结尾都有行分隔符。
注意事项
- 使用 Stream Load 事务接口导入数据的过程中,注意
/api/transaction/begin、/api/transaction/load、/api/transaction/prepare接口报错后,事务将失败并自动回滚。 - 在调用
/api/transaction/begin接口开启事务时,您必须指定标签 (Label),其后的/api/transaction/load、/api/transaction/prepare、/api/transaction/commit三个接口中,必须使用与/api/transaction/begin接口中相同的标签。 - 重复调用标签相同的
/api/transaction/begin接口,会导致前面使用相同标签正在进行中的事务失败并回滚。 - 若使用多表事务将数据导入到不同表中,则必须为事务涉及的所有操作指定参数
-H "transaction_type:multi"。 - StarRocks支持导入的 CSV 格式数据默认的列分隔符是
\t,默认的行分隔符是\n。如果源数据文件中的列分隔符和行分隔符不是\t和\n,则在调用/api/transaction/load接口时必须通过"column_separator: <column_separator>"和"row_delimiter: <row_delimiter>"指定行分隔符和列分隔符。