STREAM LOAD
功能
Stream Load 是一种基于 HTTP 协议的同步导入方式,支持将本地文件或数据流导入到 StarRocks 中。您提交导入作业以后,StarRocks 会同步地执行导入作业,并返回导入作业的结果信息。您可以通过返回的结果信息来判断导入作业是否成功。有关 Stream Load 的应用场景、使用限制、基本原理、以及支持的数据文件格式等信息,请参见使用 Stream Load 从本地导入。
注意
- Stream Load 操作会同时更新和 StarRocks 原始表相关的物化视图的数据。
- Stream Load 操作需要目标表的 INSERT 权限。如果您的用户账号没有 INSERT 权限,请参考 GRANT 给用户赋权。
语法
curl --location-trusted -u <username>:<password> -XPUT <url>
(
data_desc
)
[opt_properties]
本文以 curl 工具为例介绍如何使用 Stream Load 导入数据。除了使用 curl 工具,您还可以通过其他支持 HTTP 协议的工具或语言提交导入作业以导入数据。导入相关的参数位于 HTTP 请求的请求头。传入这些导入相关的参数时,需要注意以下几点:
-
推荐使用分块上传方式,如本文示例所示。如果使用非分块上传方式,则必须使用请求头字段
Content-Length
来标示待上传内容的长度,从而保证数据完整性。说明
使用 curl 工具提交导入作业的时候,会自动添加
Content-Length
字段,因此无需手动指定Content-Length
。 -
必须在 HTTP 请求的请求头字段
Expect
中指定100-continue
,即"Expect:100-continue"
。这样在服务器拒绝导入作业请求的情况下,可以避免不必要的数据传输,从而减少不必要的资源开销。
注意在 StarRocks 中,部分文字是 SQL 语言的保留关键字,不能直接用于 SQL 语句。如果想在 SQL 语句中使用这些保留关键字,必须用反引号 (`) 包裹起来。参见关键字。
参数说明
username 和 password
用于指定 StarRocks 集群账号的用户名和密码。必选参数。如果账号没有设置密码,这里只需要传入 <username>:
。
XPUT
用于指定 HTTP 请求方法。必选参数。Stream Load 当前只支持 PUT 方法。
url
用于指定 StarRocks 表的 URL 地址。必选参数。语法如下:
http://<fe_host>:<fe_http_port>/api/<database_name>/<table_name>/_stream_load
url
中的参数如下表所述。
参数名称 | 是否必须 | 参数说明 |
---|---|---|
fe_host | 是 | 指定 StarRocks 集群中 FE 的 IP 地址。 说明 如果您直接提交导入作业给某一个 BE(或 CN)节点,则需要传入该 BE(或 CN)的 IP 地址。 |
fe_http_port | 是 | 指定 StarRocks 集群中 FE 的 HTTP 端口号。 默认端口号为 8030。 说明 如果您直接提交导入作业给某一指定的 BE(或 CN)节点,则需要传入该 BE(或 CN)的 HTTP 端口号。默认端口号为 8040。 |
database_name | 是 | 指定目标 StarRocks 表所在的数据库的名称。 |
table_name | 是 | 指定目标 StarRocks 表的名称。 |
说明
您可以通过 SHOW FRONTENDS 命令查看 FE 节点的 IP 地址和 HTTP 端口号。
data_desc
用于描述源数据文件,包括源数据文件的名称、格式、列分隔符、行分隔符、目标分区、以及与 StarRocks 表之间的列对应关系等。语法如下:
-T <file_path>
-H "format: CSV | JSON"
-H "column_separator: <column_separator>"
-H "row_delimiter: <row_delimiter>"
-H "columns: <column1_name>[, <column2_name>,... ]"
-H "partitions: <partition1_name>[, <partition2_name>, ...]"
-H "temporary_partitions: <temporary_partition1_name>[, <temporary_partition2_name>, ...]"
-H "jsonpaths: [ \"<json_path1>\"[, \"<json_path2>\", ...] ]"
-H "strip_outer_array: true | false"
-H "json_root: <json_path>"
data_desc
中的参数可以分为三类:公共参数、CSV 适用的参数、以及 JSON 适用的参数。
公共参数
参数名称 | 是否必选 | 参数说明 |
---|---|---|
file_path | 是 | 指定源数据文件的保存路径。文件名里可选包含或者不包含扩展名。 |
format | 否 | 指定待导入数据的格式。取值包括 CSV 和 JSON 。默认值:CSV 。 |
partitions | 否 | 指定要把数据导入哪些分区。如果不指定该参数,则默认导入到 StarRocks 表所在的所有分区中。 |
temporary_partitions | 否 | 指定要把数据导入哪些临时分区。 |
columns | 否 | 指定源数据文件和 StarRocks 表之间的列对应关系。如果源数据文件中的列与 StarRocks 表中的列按顺序一一对应,则不需要指定 columns 参数。您可以通过 columns 参数实现数据转换。例如,要导入一个 CSV 格式的数据文件,文件中有两列,分别可以对应到目标 StarRocks 表的 id 和 city 两列。如果要实现把数据文件中第一列的数据乘以 100 以后再落入 StarRocks 表的转换,可以指定 "columns: city,tmp_id, id = tmp_id * 100" 。具体请参见本文“列映射”章节。 |
CSV 适用参数
参数名称 | 是否必选 | 参数说明 |
---|---|---|
column_separator | 否 | 用于指定源数据文件中的列分隔符。如果不指定该参数,则默认为 \t ,即 Tab。必须确保这里指定的列分隔符与源数据文件中的列分隔符一致。说明 StarRocks 支持设置长度最大不超过 50 个字节的 UTF-8 编码字符串作为列分隔符,包括常见的逗号 (,)、Tab 和 Pipe (|)。 |
row_delimiter | 否 | 用于指定源数据文件中的行分隔符。如果不指定该参数,则默认为 \n 。 |
skip_header | 否 | 用于指定跳过 CSV 文件最开头的几行数据。取值类型:INTEGER。默认值:0 。在某些 CSV 文件里,最开头的几行数据会用来定义列名、列类型等元数据信息。通过设置该参数,可以使 StarRocks 在导入数据时忽略 CSV 文件的前面几行。例如,如果设置该参数为 1 ,则 StarRocks 会在导入数据时忽略 CSV 文件的第一行。这里的行所使用的分隔符须与您在导入命令中所设定的行分隔符一致。 |
trim_space | 否 | 用于指定是否去除 CSV 文件中列分隔符前后的空格。取值类型:BOOLEAN。默认值:false 。有些数据库在导出数据为 CSV 文件时,会在列分隔符的前后添加一些空格。根据位置的不同,这些空格可以称为“前导空格”或者“尾随空格”。通过设置该参数,可以使 StarRocks 在导入数据时 删除这些不必要的空格。 需要注意的是,StarRocks 不会去除被 enclose 指定字符括起来的字段内的空格(包括字段的前导空格和尾随空格)。例如,列分隔符是竖线 (| ),enclose 指定的字符是双引号 (" ):|"Love StarRocks"| |" Love StarRocks "| | "Love StarRocks" | 如果设置 trim_space 为 true ,则 StarRocks 处理后的结果数据如下:|"Love StarRocks"| |" Love StarRocks "| |"Love StarRocks"| |
enclose | 否 | 根据 RFC4180,用于指定把 CSV 文件中的字段括起来的字符。取值类型:单字节字符。默认值:NONE 。最常用 enclose 字符为单引号 (' ) 或双引号 (" )。被 enclose 指定字符括起来的字段内的所有特殊字符(包括行分隔符、列分隔符等)均看做是普通符号。比 RFC4180 标准更进一步的是,StarRocks 提供的 enclose 属性支持设置任意单个字节的字符。如果一个字段内包含了 enclose 指定字符,则可以使用同样的字符对 enclose 指定字符进行转义。例如,在设置了enclose 为双引号 (" ) 时,字段值 a "quoted" c 在 CSV 文件中应该写作 "a ""quoted"" c" 。 |
escape | 否 | 指定用于转义的字符。用来转义各种特殊字符,比如行分隔 符、列分隔符、转义符、enclose 指定字符等,使 StarRocks 把这些特殊字符当做普通字符而解析成字段值的一部分。取值类型:单字节字符。默认值:NONE 。最常用的 escape 字符为斜杠 (\ ),在 SQL 语句中应该写作双斜杠 (\\ )。说明 escape 指定字符同时作用于 enclose 指定字符的内部和外部。以下为两个示例:
|
说明
对于 CSV 格式的数据,需要注意以下两点:
- StarRocks 支持设置长度最大不超过 50 个字节的 UTF-8 编码字符串作为列分隔符,包括常见的逗号 (,)、Tab 和 Pipe (|)。
- 空值 (null) 用
\N
表示。比如,数据文件一共有三列,其中某行数据的第一列、第三列数据分别为a
和b
,第二列没有数据,则第二列需要用\N
来表示空值,写作a,\N,b
,而不是a,,b
。a,,b
表示第二列是一个空字符串。skip_header
、trim_space
、enclose
和escape
等属性在 3.0 及以后版本支持。
JSON 适用参数
参数名称 | 是否必选 | 参数说明 |
---|---|---|
jsonpaths | 否 | 用于指定待导入的字段的名称。仅在使用匹配模式导入 JSON 数据时需要指定该参数。参数取值为 JSON 格式。参见导入 JSON 数据时配置列映射关系. |
strip_outer_array | 否 | 用于指定是否裁剪最外层的数组结构。取值范围:true 和 false 。默认值:false 。真实业务场景中,待导入的 JSON 数据可能在最外层有一对表示数组结构的中括号 [] 。这种情况下,一般建议您指定该参数取值为 true ,这样 StarRocks 会剪裁掉外层的中括号 [] ,并把中括号 [] 里的每个内层数组都作为一行单独的数据导入。如果您指定该参数取值为 false ,则 StarRocks 会把整个 JSON 数据文件解析成一个数组,并作为一行数据导入。例如,待导入的 JSON 数据为 [ {"category" : 1, "author" : 2}, {"category" : 3, "author" : 4} ] ,如果指定该参数取值为 true ,则 StarRocks 会把 {"category" : 1, "author" : 2} 和 {"category" : 3, "author" : 4} 解析成两行数据,并导入到目标 StarRocks 表中对应的数据行。 |
json_root | 否 | 用于指定待导入 JSON 数据的根元素。仅在使用匹配模式导入 JSON 数据时需要指定该参数。参数取值为合法的 JsonPath 字符串。默认值为空,表示会导入整个 JSON 数据文件的数据。具体请参见本文提供的示例“导入数据并指定 JSON 根节点”。 |
ignore_json_size | 否 | 用于指定是否检查 HTTP 请求中 JSON Body 的大小。 说明 HTTP 请求中 JSON Body 的大小默认不能超过 100 MB。如果 JSON Body 的大小超过 100 MB,会提示 "The size of this batch exceed the max size [104857600] of json type data data [8617627793]. Set ignore_json_size to skip check, although it may lead huge memory consuming." 错误。为避免该报错,可以在 HTTP 请求头中添加 "ignore_json_size:true" 设置,忽略对 JSON Body 大小的检查。 |
另外,导入 JSON 格式的数据时,需要注意单个 JSON 对象的大小不能超过 4 GB。如果 JSON 文件中单个 JSON 对象的大小超过 4 GB,会提示 "This parser can't support a document that big." 错误。
opt_properties
用于指定一些导入相关的可选参数。指定的参数设置作用于整个导入作业。语法如下:
-H "label: <label_name>"
-H "where: <condition1>[, <condition2>, ...]"
-H "max_filter_ratio: <num>"
-H "timeout: <num>"
-H "strict_mode: true | false"
-H "timezone: <string>"
-H "load_mem_limit: <num>"
-H "merge_condition: <column_name>"
参数说明如下表所述。
参数名称 | 是否必选 | 参数说明 |
---|---|---|
label | 否 | 用于指定导入作业的标签。如果您不指定标签,StarRocks 会自动为导入作业生成一个标签。相同标签的数据无法多次成功导入,这样可以避免一份数据重复导入。有关标签的命名规范,请参见系统限制。StarRocks 默认保留最近 3 天内成功的导入作业的标签。您可以通过 FE 配置参数 label_keep_max_second 设置默认保留时长。 |
where | 否 | 用于指定过滤条件。如果指定该参数,StarRocks 会按照指定的过滤条件对转换后的数据进行过滤。只有符合 WHERE 子句中指定的过滤条件的数据才会导入。 |
max_filter_ratio | 否 | 用于指定导入作业的最大容错率,即导入作业能够容忍的因数据质量不合格而过滤掉的数据行所占的最大比例。取值范围:0 ~1 。默认值:0 。建议您保留默认值 0 。这样的话,当导入的数据行中有错误时,导入作业会失败,从而保证数据的正确性。如果希望忽略错误的数据行,可以设置该参数的取值大于 0 。这样的话,即使导入的数据行中有错误,导入作业也能成功。说明 这里因数据质量不合格而过滤掉的数据行,不包括通过 WHERE 子句过滤掉的数据行。 |
log_rejected_record_num | 否 | 指定最多允许记录多少条因数据质量不合格而过滤掉的数据行数。该参数自 3.1 版本起支持。取值范围:0 、-1 、大于 0 的正整数。默认值:0 。
|
timeout | 否 | 用于导入作业的超时时间。取值范围:1 ~ 259200。单位:秒。默认值:600 。说明 除了 timeout 参数可以控制该导入作业的超时时间外,您还可以通过 FE 配置参数 stream_load_default_timeout_second 来统一控制 Stream Load 导入作业的超时时间。如果指定了timeout 参数,则该导入作业的超时时间以 timeout 参数为准;如果没有指定 timeout 参数,则该导入作业的超时时间以stream_load_default_timeout_second 为准。 |
strict_mode | 否 | 用于指定是否开严格模 式。取值范围:true 和 false 。默认值:false 。true 表示开启,false 表示关闭。关于该模式的介绍,参见 严格模式。 |
timezone | 否 | 用于指定导入作业所使用的时区。默认为东八区 (Asia/Shanghai)。 该参数的取值会影响所有导入涉及的、跟时区设置有关的函数所返回的结果。受时区影响的函数有 strftime、alignment_timestamp 和 from_unixtime 等,具体请参见设置时区。导入参数 timezone 设置的时区对应“设置时区”中所述的会话级时区。 |
load_mem_limit | 否 | 导入作业的内存限制,最大不超过 BE(或 CN)的内存限制。单位:字节。默认内存限制为 2 GB。 |
merge_condition | 否 | 用于指定作为更新生效条件的列名。这样只有当导入的数据中该列的值大于等于当前值的时候,更新才会生效。StarRocks v2.5 起支持条件更新。参见通过导入实现数据变更。 说明 指定的列必须为非主键列,且仅主键表支持条件更新。 |