STREAM LOAD
功能
Stream Load 是一种基于 HTTP 协议的同步导入方式,支持将本地文件或数据流导入到 StarRocks 中。您提交导入作业以后,StarRocks 会同步地执行导入作业,并返回导入作业的结果信息。您可以通过返回的结果信息来判断导入作业是否成功。有关 Stream Load 的应用场景、使用限制、基本原理、以及支持的数据文件格式等信息,请参见使用 Stream Load 从本地导入。
从 3.2.7 版本起,STREAM LOAD 支持在传输过程中对 JSON 数据进行压缩,减少网络带宽开销。用户可以通过 compression 或 Content-Encoding 参数指定不同的压缩方式,支持 GZIP、BZIP2、LZ4_FRAME、ZSTD 压缩算法。参见相关语法。
从 v3.4.0 开始,系统支持合并多个 Stream Load 请求。参见Merge Commit 参数。
注意
- Stream Load 操作会同时更新和 StarRocks 原始表相关的物化视图的数据。
- Stream Load 操作需要目标表的 INSERT 权限。如果您的用户账号没有 INSERT 权限,请参考 GRANT 给用户赋权。
语法
curl --location-trusted -u <username>:<password> -XPUT <url>
(
data_desc
)
[opt_properties]
本文以 curl 工具为例介绍如何使用 Stream Load 导入数据。除了使用 curl 工具,您还可以通过其他支持 HTTP 协议的工具或语言提交导入作业以导入数据。导入相关的参数位于 HTTP 请求的请求头。传入这些导入相关的参数时,需要注意以下几点:
-
推荐使用分块上传方式,如本文示例所示。如果使用非分块上传方式,则必须使用请求头字段
Content-Length来标示待上传内容的长度,从而保证数据完整性。说明
使用 curl 工具提交导入作业的时候,会自动添加
Content-Length字段,因此无需手动指定Content-Length。 -
必须在 HTTP 请求的请求头字段
Expect中指定100-continue,即"Expect:100-continue"。这样在服务器拒绝导入作业请求的情况下,可以避免不必要的数据传输,从而减少不必要的资源开销。
注意在 StarRocks 中,部分文字是 SQL 语言的保留关键字,不能直接用于 SQL 语句。如果想在 SQL 语句中使用这些保留关键字,必须用反引号 (`) 包裹起来。参见关键字。
参数说明
username 和 password
用于指定 StarRocks 集群 账号的用户名和密码。必选参数。如果账号没有设置密码,这里只需要传入 <username>:。
XPUT
用于指定 HTTP 请求方法。必选参数。Stream Load 当前只支持 PUT 方法。
url
用于指定 StarRocks 表的 URL 地址。必选参数。语法如下:
http://<fe_host>:<fe_http_port>/api/<database_name>/<table_name>/_stream_load
url 中的参数如下表所述。
| 参数名称 | 是否必须 | 参数说明 |
|---|---|---|
| fe_host | 是 | 指定 StarRocks 集群中 FE 的 IP 地址。 说明 如果您直接提交导入作业给某一个 BE(或 CN)节点,则需要传入该 BE(或 CN)的 IP 地址。 |
| fe_http_port | 是 | 指定 StarRocks 集群中 FE 的 HTTP 端口号。 默认端口号为 8030。 说明 如果您直接提交导入作业给某一指定的 BE(或 CN)节点,则需要传入该 BE(或 CN)的 HTTP 端口号。默认端口号为 8040。 |
| database_name | 是 | 指定目标 StarRocks 表所在的数据库的名称。 |
| table_name | 是 | 指定目标 StarRocks 表的名称。 |
说明
您可以通过 SHOW FRONTENDS 命令查看 FE 节点的 IP 地址和 HTTP 端口号。
data_desc
用于描述源数据文件,包括源数据文件的名称、格式、列分隔符、行分隔符、目标分区、以及与 StarRocks 表之间的列对应关系等。语法如下:
-T <file_path>
-H "format: CSV | JSON"
-H "column_separator: <column_separator>"
-H "row_delimiter: <row_delimiter>"
-H "columns: <column1_name>[, <column2_name>,... ]"
-H "partitions: <partition1_name>[, <partition2_name>, ...]"
-H "temporary_partitions: <temporary_partition1_name>[, <temporary_partition2_name>, ...]"
-H "jsonpaths: [ \"<json_path1>\"[, \"<json_path2>\", ...] ]"
-H "strip_outer_array: true | false"
-H "json_root: <json_path>"
-H "ignore_json_size: true | false"
-H "compression: <compression_algorithm> | Content-Encoding: <compression_algorithm>"
data_desc 中的参数可以分为三类:公共参数、CSV 适用的参数、以及 JSON 适用的参数。