STREAM LOAD
功能
Stream Load 是一种基于 HTTP 协议的同步导入方式,支持将本地文件或数据流导入到 StarRocks 中。您提交导入作业以后,StarRocks 会同步地执行导 入作业,并返回导入作业的结果信息。您可以通过返回的结果信息来判断导入作业是否成功。有关 Stream Load 的应用场景、使用限制、基本原理、以及支持的数据文件格式等信息,请参见使用 Stream Load 从本地导入。
从 3.2.7 版本起,STREAM LOAD 支持在传输过程中对 JSON 数据进行压缩,减少网络带宽开销。用户可以通过 compression
或 Content-Encoding
参数指定不同的压缩方式,支持 GZIP、BZIP2、LZ4_FRAME、ZSTD 压缩算法。参见相关语法。
从 v3.4.0 开始,系统支持合并多个 Stream Load 请求。参见Merge Commit 参数。
注意
- Stream Load 操作会同时更新和 StarRocks 原始表相关的物化视图的数据。
- Stream Load 操作需要目标表的 INSERT 权限。如果您的用户账号没有 INSERT 权限,请参考 GRANT 给用户赋权。
语法
curl --location-trusted -u <username>:<password> -XPUT <url>
(
data_desc
)
[opt_properties]
本文以 curl 工具为例介绍如何使用 Stream Load 导入数据。除了使用 curl 工具,您还可以通过其他支持 HTTP 协议的工具或语言提交导入作业以导入数据。导入相关的参数位于 HTTP 请求的请求头。传入这些导入相关的参数时,需要注意以下几点:
-
推荐使用分块上传方式,如本文示例所示。如果使用非分块上传方式,则必须使用请求头字段
Content-Length
来标示待上传内容的长度,从而保证数据完整性。说明
使用 curl 工具提交导入作业的时候,会自动添加
Content-Length
字段,因此无需手动指定Content-Length
。 -
必须在 HTTP 请求的请求头字段
Expect
中指定100-continue
,即"Expect:100-continue"
。这样在服务器拒绝导入作业请求的情况下,可以避免不必要的数据传输,从而减少不必要的资源开销。
注意在 StarRocks 中,部分文字是 SQL 语言的保留关键字,不能直接用于 SQL 语句。如果想在 SQL 语句中使用这些保留关键字,必须用反引号 (`) 包裹起来。参见关键字。
参数说明
username 和 password
用于指定 StarRocks 集群账号的用户名和密码。必选参数。如果账号没有设置密码,这里只需要传入 <username>:
。
XPUT
用于指定 HTTP 请求方法。必选参数。Stream Load 当前只支持 PUT 方法。
url
用于指定 StarRocks 表的 URL 地址。必选参数。语法如下:
http://<fe_host>:<fe_http_port>/api/<database_name>/<table_name>/_stream_load
url
中的参数如下表所述。
参数名称 | 是否必须 | 参数说明 |
---|---|---|
fe_host | 是 | 指定 StarRocks 集群中 FE 的 IP 地址。 说明 如果您直接提交导入作业给某一个 BE( 或 CN)节点,则需要传入该 BE(或 CN)的 IP 地址。 |
fe_http_port | 是 | 指定 StarRocks 集群中 FE 的 HTTP 端口号。 默认端口号为 8030。 说明 如果您直接提交导入作业给某一指定的 BE(或 CN)节点,则需要传入该 BE(或 CN)的 HTTP 端口号。默认端口号为 8040。 |
database_name | 是 | 指定目标 StarRocks 表所在的数据库的名称。 |
table_name | 是 | 指定目标 StarRocks 表的名称。 |
说明
您可以通过 SHOW FRONTENDS 命令查看 FE 节点的 IP 地址和 HTTP 端口号。
data_desc
用于描述源数据文件,包括源数据文件的名称、格式、列分隔符、行分隔符、目标分区、以及与 StarRocks 表之间的列对应关系等。语法如下:
-T <file_path>
-H "format: CSV | JSON"
-H "column_separator: <column_separator>"
-H "row_delimiter: <row_delimiter>"
-H "columns: <column1_name>[, <column2_name>,... ]"
-H "partitions: <partition1_name>[, <partition2_name>, ...]"
-H "temporary_partitions: <temporary_partition1_name>[, <temporary_partition2_name>, ...]"
-H "jsonpaths: [ \"<json_path1>\"[, \"<json_path2>\", ...] ]"
-H "strip_outer_array: true | false"
-H "json_root: <json_path>"
-H "ignore_json_size: true | false"
-H "compression: <compression_algorithm> | Content-Encoding: <compression_algorithm>"
data_desc
中的参数可以分为三类:公共参数、CSV 适用的参数、以及 JSON 适用的参数。
公共参数
参数名称 | 是否必选 | 参数说明 |
---|---|---|
file_path | 是 | 指定源数据文件的保存路径。文件名里可选包含或者不包含扩展名。 |
format | 否 | 指定待导入数据的格式。取值包括 CSV 和 JSON 。默认值:CSV 。 |
partitions | 否 | 指定要把数据导入哪些分区。如果不指定该参数,则默认导入到 StarRocks 表所在的所有分区中。 |
temporary_partitions | 否 | 指定要把数据导入哪些临时分区。 |
columns | 否 | 指定源数据文件和 StarRocks 表之间的列对应关系。如果源数据文件中的列与 StarRocks 表中的列按顺序一一对应,则不需要指定 columns 参数。您可以通过 columns 参数实现数据转换。例如,要导入一个 CSV 格式的数据文件,文件中有两列,分别可以对应到目标 StarRocks 表的 id 和 city 两列。如果要实现把数据文件中第一列的数据乘以 100 以后再落入 StarRocks 表的转换,可以指定 "columns: city,tmp_id, id = tmp_id * 100" 。具体请参见本文“列映射”章节。 |
CSV 适用参数
参数名称 | 是否必选 | 参数说明 |
---|---|---|
column_separator | 否 | 用于指定源数据文件中的列分隔符。如果不指定该参数,则默认为 \t ,即 Tab。必须确保这里指定的列分隔符与源数据文件中的列分隔符一致。说明 StarRocks 支持设置长度最大不超过 50 个字节的 UTF-8 编码字符串作为列分隔符,包括常见的逗号 (,)、Tab 和 Pipe (|)。 |
row_delimiter | 否 | 用于指定源数据文件中的行分隔符。如果不指定该参数,则默认为 \n 。 |
skip_header | 否 | 用于指定跳过 CSV 文件最开头的几行数据。取值类型:INTEGER。默认值:0 。在某些 CSV 文件里,最开头的几行数据会用来定义列名、列类型等元数据信息。通过设置该参数,可以使 StarRocks 在导入数据时忽略 CSV 文件的前面几行。例如,如果设置该参数为 1 ,则 StarRocks 会在导入数据时忽略 CSV 文件的第一行。这里的行所使用的 分隔符须与您在导入命令中所设定的行分隔符一致。 |
trim_space | 否 | 用于指定是否去除 CSV 文件中列分隔符前后的空格。取值类型:BOOLEAN。默认值:false 。有些数据库在导出数据为 CSV 文件时,会在列分隔符的前后添加一些空格。根据位置的不同,这些空格可以称为“前导空格”或者“尾随空格”。通过设置该参数,可以使 StarRocks 在导入数据时删除这些不必要的空格。 需要注意的是,StarRocks 不会去除被 enclose 指定字符括起来的字段内的空格(包括字段的前导空格和尾随空格)。例如,列分隔符是竖线 (| ),enclose 指定的字符是双引号 (" ):|"Love StarRocks"| |" Love StarRocks "| | "Love StarRocks" | 如果设置 trim_space 为 true ,则 StarRocks 处理后的结果数据如下:|"Love StarRocks"| |" Love StarRocks "| |"Love StarRocks"| |
enclose | 否 | 根据 RFC4180,用于指定把 CSV 文件中的字段括起来的字符。取值类型:单字节字符。默认值:NONE 。最常用 enclose 字符为单引号 (' ) 或双引号 (" )。被 enclose 指定字符括起来的字段内的所有特殊字符(包括行分隔符、列分隔符等)均看做是普通符号。比 RFC4180 标准更进一步的是,StarRocks 提供的 enclose 属性支持设置任意单个字节的字符 。如果一个字段内包含了 enclose 指定字符,则可以使用同样的字符对 enclose 指定字符进行转义。例如,在设置了enclose 为双引号 (" ) 时,字段值 a "quoted" c 在 CSV 文件中应该写作 "a ""quoted"" c" 。 |
escape | 否 | 指定用于转义的字符。用来转义各种特殊字符,比如行分隔符、列分隔符、转义符、enclose 指定字符等,使 StarRocks 把这些特殊字符当做普通字符而解析成字段值的一部分。取值类型:单字节字符。默认值:NONE 。最常用的 escape 字符为斜杠 (\ ),在 SQL 语句中应该写作双斜杠 (\\ )。说明 escape 指定字符同时作用于 enclose 指定字符的内部和外部。以下为两个示例:
|
说明
对于 CSV 格式的数据,需要注意以下两点:
- StarRocks 支持设置长度最大不超过 50 个字节的 UTF-8 编码字符串作为列分隔符,包括常见的逗号 (,)、Tab 和 Pipe (|)。
- 空值 (null) 用
\N
表示。比如,数据文件一共有三列,其中某行数据的第一列、第三列数据分别为a
和b
,第二列没有数据,则第二列需要用\N
来表示空值,写作a,\N,b
,而不是a,,b
。a,,b
表示第二列是一个空字符串。skip_header
、trim_space
、enclose
和escape
等属性在 3.0 及以后版本支持。
JSON 适用参数
参数名称 | 是否必选 | 参数说明 |
---|---|---|
jsonpaths | 否 | 用于指定待导入的字段的名称。仅在使用匹配模式导入 JSON 数据时需要指定该参数。参数取值为 JSON 格式。参见导入 JSON 数据时配置列映射关系。 |
strip_outer_array | 否 | 用于指定是否裁剪最外层的数组结构。取值范围:true 和 false 。默认值:false 。真实业务场景中,待导入的 JSON 数据可能在最外层有一对表示数组结构的中括号 [] 。这种情况下,一般建议您指定该参数取值为 true ,这样 StarRocks 会剪裁掉外层的中括号 [] ,并把中括号 [] 里的每个内层数组都作为一行单独的数据导入。如果您指定该参数取值为 false ,则 StarRocks 会把整个 JSON 数据文件解析成一个数组,并作为一行数据导入。例如,待导入的 JSON 数据为 [ {"category" : 1, "author" : 2}, {"category" : 3, "author" : 4} ] ,如果指定该参数取值为 true ,则 StarRocks 会把 {"category" : 1, "author" : 2} 和 {"category" : 3, "author" : 4} 解析成两行数据,并导入到目标 StarRocks 表中对应的数据行。 |
json_root | 否 | 用于指定待导入 JSON 数据的根元素。仅在使用匹配模式导入 JSON 数据时需要指定该参数。参数取值为合法的 JsonPath 字符串。默认值为空,表示会导入整个 JSON 数据文件的数据。具体请参见本文提供的示例“导入数据并指定 JSON 根节点”。 |
ignore_json_size | 否 | 用于指定是否检查 HTTP 请求中 JSON Body 的大小。 说明 HTTP 请求中 JSON Body 的大小默认不能超过 100 MB。如果 JSON Body 的大小超过 100 MB,会提示 "The size of this batch exceed the max size [104857600] of json type data data [8617627793]. Set ignore_json_size to skip check, although it may lead huge memory consuming." 错误。为避免该报错,可以在 HTTP 请求头中添加 "ignore_json_size:true" 设置,忽略对 JSON Body 大小的检查。 |
compression, Content-Encoding | 否 | 指定在 STREAM LOAD 数据传输过程中使用哪种压缩算法,支持 GZIP、BZIP2、LZ4_FRAME、ZSTD 算法。示例:curl --location-trusted -u root: -v 'http://127.0.0.1:18030/api/db0/tbl_simple/_stream_load' \-X PUT -H "expect:100-continue" \-H 'format: json' -H 'compression: lz4_frame' -T ./b.json.lz4 。 |
另外,导入 JSON 格式的数据时,需要注意单个 JSON 对象的大小不能超过 4 GB。如果 JSON 文件中单个 JSON 对象的大小超过 4 GB,会提示 "This parser can't support a document that big." 错误。
Merge Commit 参数
用于启用 Merge Commit 功能,在指定的时间窗口内合并多个并发的 Stream Load 请求,并将它们合并为一个事务。
参数名称 | 是否必选 | 参数说明 |
---|---|---|
enable_merge_commit | 否 | 是否为导入请求启用 Merge Commit。有效值:true 或 false (默认值)。 |
merge_commit_async | 否 | 服务器返回模式。有效值:
|
merge_commit_interval_ms | 是 | 合并时间窗口的大小。单位:毫秒。Merge Commit 会尝试将时间窗口内接收到的导入请求合并到一个事务中。窗口越大,合并效率越高,但延迟也会增加。 |
merge_commit_parallel | 是 | 每个合并窗口创建的导入计划的并行度。可以根据导入负载调整该值。如果请求数量多,数据量大,可提高该值。并行度受 BE 节点数量限制,计算方式为 max(merge_commit_parallel, BE 节点数量) 。 |
- Merge Commit 仅支持单库单表的同构导入请求合并。“同构”是指的 Stream Load 的参数完全一致,包括:公共参数、JSON 格式参数、CSV 格式参数、
opt_properties
以及 Merge Commit 参数。 - 导入 CSV 格式的数据时,需要确保每行数据结尾都有行分隔符,不支持
skip_header
。 - 服务器会自动生成事务标签,手动指定标签会被忽略。
- Merge Commit 会将多个导入请求合并到一个事务中。如果某个请求存在数据质量问题,则事务中的所有请求都会失败。
opt_properties
用于指定一些导入相关的可选参数。指定的参数设置作用于整个导入作业。语法如下:
-H "label: <label_name>"
-H "where: <condition1>[, <condition2>, ...]"
-H "max_filter_ratio: <num>"
-H "timeout: <num>"
-H "strict_mode: true | false"
-H "timezone: <string>"
-H "load_mem_limit: <num>"
-H "partial_update: true | false"
-H "partial_update_mode: row | column"
-H "merge_condition: <column_name>"
参数说明如下表所述。
参数名称 | 是否必选 | 参数说明 |
---|---|---|
label | 否 | 用于指定导入作业的标签。如果您不指定标签,StarRocks 会自动为导入作业生成一个标签。相同标签的数据无法多次成功导入,这样可以避免一份数据重复导入。有关标签的命名规范,请参见系统限制。StarRocks 默认保留最近 3 天内成功的导入作业的标签。您可以通过 FE 配置参数 label_keep_max_second 设置默认保留时长。 |
where | 否 | 用于指定过滤条件。如果指定该参数,StarRocks 会按照指定的过滤条件对转换后的数据进行过滤。只有符合 WHERE 子句中指定的过滤条件的数据才会导入。 |
max_filter_ratio | 否 | 用于指定导入作业的最大容错率,即导入作业能够容忍的因数据质量不合格而过滤掉的数据行所占的最大比例。取值范围:0 ~1 。默认值:0 。建议您保留默认值 0 。这样的话,当导入的数据行中有错误时,导入作业会失败,从而保证数据的正确性。如果希望忽略错误的数据行,可以设置该参数的取值大于 0 。这样的话,即使导入的数据行中有错误,导入作业也能成功。说明 这里因数据质量不合格而过滤掉的数据行,不包括通过 WHERE 子句过滤掉的数据行。 |
log_rejected_record_num | 否 | 指定最多允许记录多少条因数据质量不合格而过滤掉的数据行数。该参数自 3.1 版本起支持。取值范围:0 、-1 、大于 0 的正整数。默认值:0 。
|
timeout | 否 | 用于导入作业的超时时间。取值范围:1 ~ 259200。单位:秒。默认值:600 。说明 除了 timeout 参数可以控制该导入作业的超时时间外,您还可以通过 FE 配置参数 stream_load_default_timeout_second 来统一控制 Stream Load 导入作业的超时时间。如果指定了timeout 参数,则该导入作业的超时时间以 timeout 参数为准;如果没有指定 timeout 参数,则该导入作业的超时时间以stream_load_default_timeout_second 为准。 |
strict_mode | 否 | 用于指定是否开严格模式。取值范围:true 和 false 。默认值:false 。true 表示开启,false 表示关闭。关于该模式的介绍,参见 严格模式。 |
timezone | 否 | 用于指定导入作业所使用的时区。默认为东八区 (Asia/Shanghai)。 该参数的取值会影响所有导入涉及的、跟时区设置有关的函数所返回的结果。受时区影响的函数有 strftime、alignment_timestamp 和 from_unixtime 等,具体请参见设置时区。导入参数 timezone 设置的时区对应“设置时区”中所述的会话级时区。 |
load_mem_limit | 否 | 导入作业的内存限制,最大不超过 BE(或 CN)的内存限制。单位:字节。默认内存限制为 2 GB。 |
partial_update | 否 | 是否使用部分列更新。取值包括 TRUE 和 FALSE 。默认值:FALSE 。 |
partial_update_mode | 否 | 指定部分更新的模式,取值包括 row 和 column 。
|
merge_condition | 否 | 用于指定作为更新生效条件的列名。这样只有当导入的数据中该列的值大于等于当前值的时候,更新才会生效。StarRocks v2.5 起支持条件更新。参见通过导入实现数据变更。 说明 指定的列必须为非主键列,且仅主键表支持条件更新。 |
列映射
导入 CSV 数据时配置列映射关系
如果源数据文件中的列与目标表中的列按顺序一一对应,您不需要指定列映射和转换关系。
如果源数据文件中的列与目标表中的列不能按顺序一一对应,包括数量或顺序不一致,则必须通过 COLUMNS
参数来指定列映射和转换关系。一般包括如下两种场景:
-
列数量一致、但是顺序不一致,并且数据不需要通过函数计算、可以直接落入目标表中对应的列。 这种场景下,您需要在
COLUMNS
参 数中按照源数据文件中的列顺序、使用目标表中对应的列名来配置列映射和转换关系。例如,目标表中有三列,按顺序依次为
col1
、col2
和col3
;源数据文件中也有三列,按顺序依次对应目标表中的col3
、col2
和col1
。这种情况下,需要指定COLUMNS(col3, col2, col1)
。 -
列数量、顺序都不一致,并且某些列的数据需要通过函数计算以后才能落入目标表中对应的列。 这种场景下,您不仅需要在
COLUMNS
参数中按照源数据文件中的列顺序、使用目标表中对应的列名来配置列映射关系,还需要指定参与数据计算的函数。以下为两个示例:- 目标表中有三列,按顺序依次为
col1
、col2
和col3
;源数据文件中有四列,前三列按顺序依次对应目标表中的col1
、col2
和col3
,第四列在目标表中无对应的列。这种情况下,需要指定COLUMNS(col1, col2, col3, temp)
,其中,最后一列可随意指定一个名称(如temp
)用于占位即可。 - 目标表中有三列,按顺序依次为
year
、month
和day
。源数据文件中只有一个包含时间数据的列,格式为yyyy-mm-dd hh:mm:ss
。这种情况下,可以指定COLUMNS (col, year = year(col), month=month(col), day=day(col))
。其中,col
是源数据文件中所包含的列的临时命名,year = year(col)
、month=month(col)
和day=day(col)
用于指定从col
列提取对应的数据并落入目标表中对应的列,如year = year(col)
表示通过year
函数提取源数据文件中col
列的yyyy
部分的数据并落入目标表中的year
列。
- 目标表中有三列,按顺序依次为
有关操作示例,参见设置列映射关系。
导入 JSON 数据时配置列映射关系
如果 JSON 文件中的 Key 名与目标表中的列名一致,您可以使用简单模式来导入数据。简单模式下,不需要设置 jsonpaths
参数,这种模式要求 JSON 数据是大括号 表示的对象类型,例如 {"category": 1, "author": 2, "price": "3"}
中,category
、author
、price
是 Key 的名称,按名称直接对应目标 表中的 category
、author
、price
三列。
如果 JSON 文件中的 Key 名与目标表中的列名不一致,则需要使用匹配模式来导入数据。匹配模式下,需要通过 jsonpaths
和 COLUMNS
两个参数来指定 JSON 文件中的 Key 和目标表中的列之间的映射和转换关系:
jsonpaths
参数中按照 JSON 文件中 Key 的顺序一一指定待导入的 Key。COLUMNS
参数中指定 JSON 文件中的 Key 与目标表中的列之间的映射关系和数据转换关系。COLUMNS
参数中指定的列名与jsonpaths
参数中指定的 Key 按顺序保持一一对应。COLUMNS
参数中指定的列名与目标表中的列按名称保持一一对应。
有关使用匹配模式导入 JSON 数据的示例,参见使用匹配模式导入数据。
返回值
导入结束后,会以 JSON 格式返回导入作业的结果信息,如下所示:
{
"TxnId": 1003,
"Label": "label123",
"Status": "Success",
"Message": "OK",
"NumberTotalRows": 1000000,
"NumberLoadedRows": 999999,
"NumberFilteredRows": 1,
"NumberUnselectedRows": 0,
"LoadBytes": 40888898,
"LoadTimeMs": 2144,
"BeginTxnTimeMs": 0,
"StreamLoadPlanTimeMs": 1,
"ReadDataTimeMs": 0,
"WriteDataTimeMs": 11,
"CommitAndPublishTimeMs": 16,
}
返回结果中的参数说明如下表所述。
参数名 称 | 说明 |
---|---|
TxnId | 导入作业的事务 ID。 |
Label | 导入作业的标签。 |
Status | 此次导入的数据的最终状态。
|
Message | 导入作业的状态详情。如果导入作业失败,这里会返回具体的失败原因。 |
NumberTotalRows | 读取到的总行数。 |
NumberLoadedRows | 成功导入的总行数。只有当返回结果中的 Status 为 Success 时有效。 |
NumberFilteredRows | 导入过程中因数据质量不合格而过滤掉的行数。 |
NumberUnselectedRows | 导入过程中根据 WHERE 子句指定的条件而过滤掉的行数。 |
LoadBytes | 此次导入的数据量大小。单位:字节 (Bytes)。 |
LoadTimeMs | 此次导入所用的时间。单位:毫秒 (ms)。 |
BeginTxnTimeMs | 导入作业开启事务的时长。 |
StreamLoadPlanTimeMs | 导入作业生成执行计划的时长。 |
ReadDataTimeMs | 导入作业读取数据的时长。 |
WriteDataTimeMs | 导入作业写入数据的时长。 |
CommitAndPublishTimeMs | 导入作业提交和数据发布的耗时。 |
如果导入作业失败,还会返回 ErrorURL
,如下 所示:
{
"ErrorURL": "http://172.26.195.68:8045/api/_load_error_log?file=error_log_3a4eb8421f0878a6_9a54df29fd9206be"
}
通过 ErrorURL
可以查看导入过程中因数据质量不合格而过滤掉的错误数据行的具体信息。您可以在提交导入作业时,通过可选参数 log_rejected_record_num
来指定最多可以记录多少条错误数据行的信息。
您可以通过 curl "url"
命令直接查看错误数据行的信息。也可以通过 wget "url"
命令导出错误数据行的信息,如下所示:
wget http://172.26.195.68:8045/api/_load_error_log?file=error_log_3a4eb8421f0878a6_9a54df29fd9206be
导出的错误数据行信息会保存到一个名为 _load_error_log?file=error_log_3a4eb8421f0878a6_9a54df29fd9206be
的本地文件中。您可以通过 cat _load_error_log?file=error_log_3a4eb8421f0878a6_9a54df29fd9206be
命令查看该文件的内容。
您可以根据错误信息调整导入作业,然后重新提交导入作业。
示例
导入 CSV 格式的数据
本小节以 CSV 格式的数据为例,重点阐述在创建导入作业的时候,如何运用各种参数配置来满足不同业务场景下的各种导入要求。
设置超时时间
StarRocks 数据库 test_db
里的表 table1
包含三列,按顺序依次为 col1
、col2
、col3
。
数据文件 example1.csv
也包含三列,按顺序一一对应 table1
中的三列 col1
、col2
、col3
。
如果要把 example1.csv
中所有的数据都导入到 table1
中,并且要求超时时间最大不超过 100 秒,可以执行如下命令:
curl --location-trusted -u <username>:<password> -H "label:label1" \
-H "Expect:100-continue" \
-H "timeout:100" \
-H "max_filter_ratio:0.2" \
-T example1.csv -XPUT \
http://<fe_host>:<fe_http_port>/api/test_db/table1/_stream_load
设置最大容错率
StarRocks 数据库 test_db
里的表 table2
包含三列,按顺序依次为 col1
、col2
、col3
。
数据文件 example2.csv
也包含三列,按顺序一一对应 table2
中的三列 col1
、col2
、col3
。
如果要把 example2.csv
中所有的数据都导入到 table2
中,并且要求容错率最大不超过 0.2
,可以执行如下命令:
curl --location-trusted -u <username>:<password> -H "label:label2" \
-H "Expect:100-continue" \
-H "max_filter_ratio:0.2" \
-T example2.csv -XPUT \
http://<fe_host>:<fe_http_port>/api/test_db/table2/_stream_load
设置列映射关系
StarRocks 数据库 test_db
里的表 table3
包含三列, 按顺序依次为 col1
、col2
、col3
。
数据文件 example3.csv
也包含三列,按顺序依次对应 table3
中 col2
、col1
、col3
。
如果要把 example3.csv
中所有的数据都导入到 table3
中,可以执行如下命令:
curl --location-trusted -u <username>:<password> -H "label:label3" \
-H "Expect:100-continue" \
-H "columns: col2, col1, col3" \
-T example3.csv -XPUT \
http://<fe_host>:<fe_http_port>/api/test_db/table3/_stream_load
说明
上述示例中,因为
example3.csv
和table3
所包含的列不能按顺序依次对应,因此需要通过columns
参数来设置example3.csv
和table3
之间的列映射关系。
设置筛选条件
StarRocks 数据库 test_db
里的表 table4
包含三列,按顺序依次为 col1
、col2
、col3
。
数据文件 example4.csv
也包含三列,按顺序一一对应 table4
中的三列 col1
、col2
、col3
。
如果只想把 example4.csv
中第一列的值等于 20180601
的数据行导入到 table4
中,可以执行如下命令:
curl --location-trusted -u <username>:<password> -H "label:label4" \
-H "Expect:100-continue" \
-H "columns: col1, col2,col3"\
-H "where: col1 = 20180601" \
-T example4.csv -XPUT \
http://<fe_host>:<fe_http_port>/api/test_db/table4/_stream_load
说明
上述示例中,虽然
example4.csv
和table4
所包含的列数目相同、并且按顺序一一对应,但是因为需要通过 WHERE 子句指定基于列的过滤条件,因此需要通过columns
参数对example4.csv
中的列进行临时命名。
设置目标分区
StarRocks 数据库 test_db
里的表 table5
包含三列,按顺序依次为 col1
、col2
、col3
。
数据文件 example5.csv
也包含三列,按顺序一一对应 table5
中的三列 col1
、col2
、col3
。
如果要把 example5.csv
中所有的数据都导入到 table5
所在的分区 p1
和 p2
,可以执行如下命令:
curl --location-trusted -u <username>:<password> -H "label:label5" \
-H "Expect:100-continue" \
-H "partitions: p1, p2" \
-T example5.csv -XPUT \
http://<fe_host>:<fe_http_port>/api/test_db/table5/_stream_load