使用 Stream Load 事务接口导入
为了支持和 Apache Flink®、Apache Kafka® 等其他系统之间实现跨系 统的两阶段提交,并提升高并发 Stream Load 导入场景下的性能,StarRocks 自 2.4 版本起提供 Stream Load 事务接口。
本文介绍 Stream Load 事务接口、以及如何使用该事务接口把数据导入到 StarRocks 中。
接口说明
Stream Load 事务接口支持通过兼容 HTTP 协议的工具或语言发起接口请求。本文以 curl 工具为例介绍如何使用该接口。该接口提供事务管理、数据写入、事务预提交、事务去重和超时管理等功能。
Stream Load 支持导入 CSV 和 JSON 格式的数据,并且建议在导入的数据文件数量较少、单个数据文件的大小不超过 10 GB 时使用。Stream Load 不支持 Parquet 文件格式。如果要导入 Parquet 格式的数据,请使用 INSERT+files().
事务管理
提供如下标准接口,用于管理事务:
-
/api/transaction/begin
:开启一个新事务。 -
/api/transaction/commit
:提交当前事务,持久化变更。 -
/api/transaction/rollback
:回滚当前事务,回滚变更。
事务预提交
提供 /api/transaction/prepare
接口,用于预提交当前事务,临时持久化变更。预提交一个事务后,您可以继续提交或者回滚该事务。这种机制下,如果在事务预提交成功以后 StarRocks 发生宕机,您仍然可以在系统恢复后继续执行提交。
说明
在事务预提交以后,请勿继续写入数据。继续写入数据的话,写入请求会报错。
数据写入
提供 /api/transaction/load
接口,用于写入数据。您可以在同一个事务中多次调用该接口来写入数据。
事务去重
复用 StarRocks 现有的标签机制,通过标签绑定事务,实现事务的 “至多一次 (At-Most-Once)” 语义。