更新时间:2024-04-08 GMT+08:00
分享

创建任务

功能介绍

创建任务。

调试

您可以在API Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。

URI

POST /v1/{project_id}/instances/{instance_id}/lf-jobs

表1 路径参数

参数

是否必选

参数类型

描述

project_id

String

项目编号。获取方法,请参见获取项目ID

instance_id

String

LakeFormation实例ID。创建实例时自动生成。例如:2180518f-42b8-4947-b20b-adfc53981a25。

请求参数

表2 请求Header参数

参数

是否必选

参数类型

描述

X-Auth-Token

String

租户token。

表3 请求Body参数

参数

是否必选

参数类型

描述

name

String

任务名称,只能包含中文、字母、数字和下划线,且长度为4到255个字符。

description

String

描述,用户可以对创建的任务进行描述,长度在0-4000个字符之间。

type

String

METADATA_MIGRATION: 元数据迁移、 PERMISSION_MIGRATION: 数据权限迁移、 METADATA_DISCOVERY: 元数据发现。

枚举值:

  • METADATA_MIGRATION

  • PERMISSION_MIGRATION

  • METADATA_DISCOVERY

parameter

JobParameter object

任务参数,根据迁移任务类型由系统确定。

表4 JobParameter

参数

是否必选

参数类型

描述

metadata_migration_parameter

MetaDataMigrationParameter object

元数据迁移参数。

permission_migration_parameter

PermissionMigrationParameter object

权限迁移参数。

metadata_discovery_parameter

MetaDataDiscoveryParameter object

元数据发现参数。

表5 MetaDataMigrationParameter

参数

是否必选

参数类型

描述

datasource_type

String

数据源类型: ALIYUN_DLF代表Data Lake Formation DLF、 MRS_RDS_FOR_MYSQL代表MRS云数据库RDS(for MySQL)、 OPEN_FOR_MYSQL代表开源HiveMetastore(for MySQL)、 MRS_RDS_FOR_PG代表MRS云数据库RDS(for PostgreSQL)、 MRS_LOCAL_GAUSSDB代表MRS本地数据库(GaussDB)。

枚举值:

  • ALIYUN_DLF

  • MRS_RDS_FOR_MYSQL

  • OPEN_FOR_MYSQL

  • MRS_RDS_FOR_PG

  • MRS_LOCAL_GAUSSDB

datasource_parameter

DataSourceParameter object

数据源参数。

source_catalog

String

源Catalog,要迁移出的catalog。

target_catalog

String

目标Catalog,要迁移至的catalog。

conflict_strategy

String

冲突解决策略,UPSERT表示仅创建和更新现有元数据,不删除。

枚举值:

  • UPSERT

log_location

String

日志存放路径,由用户选择。

sync_objects

Array of strings

迁移元数据对象数组,DATABASE对应数据库,FUNCTION对应函数,TABLE对应表,PARTITION对应分区。

枚举值:

  • DATABASE

  • FUNCTION

  • TABLE

  • PARTITION

default_owner

String

默认用户信息,由用户确定。

locations

Array of LocationReplaceRule objects

路径替换表,由用户确定键值对后生成,最长20条记录。

instance_id

String

实例ID。

ignore_obs_checked

Boolean

忽略内表建表时对Obs路径的限制。

network_type

String

迁移网络类型,包括EIP,VPC_PEERING。

枚举值:

  • EIP

  • VPC_PEERING

accepted_vpc_id

String

对端rds所在的vpcid。

表6 DataSourceParameter

参数

是否必选

参数类型

描述

jdbc_url

String

JDBC URL。例如:jdbc:protocol://host:port/db_name。

username

String

用户名,只能包含字母、数字,且长度不能超过255个字符。

password

String

密码,此值只在创建或更新任务时可能传入,为空值时代表没有密码或不需要更新密码, 查询和列举时不能暴露密码。

endpoint

String

endpoint URL。例如:xxxx.com。

access_key

String

访问钥匙,此值只在创建或更新任务时可能传入,为空值时代表没有密钥或不需要更新密钥,查询和列举时不能暴露此密钥。

secret_key

String

密钥,此值只在创建或更新任务时可能传入,为空值时代表没有密钥或不需要更新密钥, 查询和列举时不能暴露此密钥。

subnet_ip

String

rds的子网ip

表7 LocationReplaceRule

参数

是否必选

参数类型

描述

key

String

键,源路径。

value

String

值,替换路径。

表8 PermissionMigrationParameter

参数

是否必选

参数类型

描述

location

String

用于获取权限迁移的obs文件路径。

file_name

String

权限json文件,文件名中不得包含 <, >, :, ", /, , |, ?, * 这些特殊字符。

log_location

String

日志存放路径,由用户选择。

policy_type

String

权限类型:DLF、RANGER、LAKEFORMATION。

枚举值:

  • DLF

  • RANGER

  • LAKEFORMATION

catalog_id

String

dlf权限策略转换需要传入catalog_id字段。

instance_id

String

实例ID。

ranger_permission_migration_principal_relas

RangerPermissionMigrationPrincipalRelas object

ranger的授权主体转换关系。

表9 RangerPermissionMigrationPrincipalRelas

参数

是否必选

参数类型

描述

user_to

String

user转换对象, IAM_USER为iam用户, IAM_GROUP为iam群组, ROLE为角色。

枚举值:

  • IAM_USER

  • IAM_GROUP

  • ROLE

user_prefix

String

user转换后的对象名称的前缀。

user_suffix

String

user转换后的对象名称的后缀。

group_to

String

group转换对象, IAM_USER为iam用户, IAM_GROUP为iam群组, ROLE为角色。

枚举值:

  • IAM_USER

  • IAM_GROUP

  • ROLE

group_prefix

String

group转换后的对象名称的前缀。

group_suffix

String

group转换后的对象名称的后缀。

role_to

String

role转换对象, IAM_USER为iam用户, IAM_GROUP为iam群组, ROLE为角色。

枚举值:

  • IAM_USER

  • IAM_GROUP

  • ROLE

role_prefix

String

role转换后的对象名称的前缀。

role_suffix

String

role转换后的对象名称的后缀。

表10 MetaDataDiscoveryParameter

参数

是否必选

参数类型

描述

data_location

String

数据存储路径,由用户选择。

target_catalog

String

目标Catalog,发现元数据后要保存至的catalog。

target_database

String

目标database,发现元数据后要保存至的database。

conflict_strategy

String

冲突解决策略,UPDATE 表示仅更新现有元数据,不删除,INSERT表示仅创建元数据,不更新,不删除,UPSERT 表示仅创建和更新现有元数据,不删除。

枚举值:

  • UPDATE

  • INSERT

  • UPSERT

file_discovery_type

String

文件发现类型, |- PARQUET open-source columnar storage format for Hadoop CSV stands for Comma Seperated Value JSON stands for Java Script Object Notation ORC stands for Optimized Row Columnar AVRO is a row-oriented remote procedure call and data serialization framework ALL means auto-detected the file types

枚举值:

  • PARQUET

  • CSV

  • JSON

  • ORC

  • AVRO

  • ALL

separator

String

文件的分隔符,常用的分隔符包括逗号,分号等。

quote

String

文件的引号字符,常用的引号字符包括单引号,双引号,\u0000等。

枚举值:

  • DOUBLE_QUOTE

  • SINGLE_QUOTE

  • NULL_QUOTE

escape

String

文件的逃逸字符,常用的逃逸字符有 \。

header

Boolean

文件的第一行是否被认为是header,true为第一行是header,false为不是header。默认为false。

file_sample_rate

Integer

文件采样率 (%),取值范围为 0到100,100表示百分之百全量扫描,0表示每个文件夹下只扫描一个文件。

table_depth

Integer

表深度。假设有路径obs://a/b/c/d/e=1/f=99,用户设置了数据存储路径为obs://a/b,则分组层级2代表以d为分界,d为table名,e=1和f=99说明table d 是分区表,并且分区键为e和f,分区值为1和99。

log_location

String

日志存放路径,由用户选择。

default_owner

String

默认用户信息,默认为创建此任务的用户。

principals

Array of Principal objects

主体信息

give_write

Boolean

是否赋予写权限,true为赋予,false为不赋予。默认为false, 赋予写权限后授权主体将拥有读写权限。

instance_id

String

实例ID

rediscovery_policy

String

重新发现策略:FULL_DISCOVERY全量发现、INCREMENTAL_DISCOVERY增量发现、默认为FULL_DISCOVERY。

枚举值:

  • FULL_DISCOVERY

  • INCREMENTAL_DISCOVERY

execute_strategy

String

元数据发现执行方式:MANNUAL手动执行、SCHEDULE调度执行、默认为MANNUAL。

枚举值:

  • MANNUAL

  • SCHEDULE

execute_frequency

String

元数据发现调度执行频率:可选值为MONTHLY每月执行、WEEKLY每周执行、DAILY每日执行、HOURLY每小时执行。

枚举值:

  • MONTHLY

  • WEEKLY

  • DAILY

  • HOURLY

execute_day

String

元数据发现调度执行的日期时间点,当execute_frequency为MONLY每月执行时,该选项表示每月执行的日期,范围为1~31,注意如果当月实际不存在指定日期时则不执行,如选定了execute_frequency为MONLY且execute_day为30时,则2月不会触发元数据发现任务;当execute_frequency为WEEKLY每周执行时,该选项表示每周执行的日期,范围为1~7;当execute_frequency为DAILY每日执行时或HOURLY每小时执行时,该选项值为*,表示每天都会执行。

execute_hour

String

元数据发现调度执行的小时时间点,当execute_frequency为MONLY每月执行时或WEEKLY每周执行时或DAILY每日执行时,该选项表示选定的天内的执行时间点,范围为0~23;当execute_frequency为HOURLY每小时执行时,该选项值为*,表示每小时都会触发执行。

execute_minute

String

元数据发现调度执行的分钟时间点,范围为0~59,表示会在选定的时间点对应的分钟执行。

表11 Principal

参数

是否必选

参数类型

描述

principal_type

String

主体类型: USER-用户、 GROUP-组、 ROLE-角色、 SHARE-共享、 OTHER-为其它。

枚举值:

  • USER

  • GROUP

  • ROLE

  • SHARE

  • OTHER

principal_source

String

主体来源: IAM-云用户、 SAML-联邦用户、 LDAP-ld用户、 LOCAL-本地用户、 AGENTTENANT-委托、 OTHER-其它。

枚举值:

  • IAM

  • SAML

  • LDAP

  • LOCAL

  • AGENTTENANT

  • OTHER

principal_name

String

主体名称。只能包含中文、字母、数字和_-.特殊字符,且长度为1~49个字符。

响应参数

状态码: 201

表12 响应Body参数

参数

参数类型

描述

id

String

任务ID,创建任务时自动生成。例如:03141229-84cd-4b1b-9733-dd124320c125。

name

String

任务名称,只能包含中文、字母、数字和下划线,且长度为4到255个字符。

description

String

用户创建任务时写的描述信息。

type

String

METADATA_MIGRATION:元数据迁移、 PERMISSION_MIGRATION:数据权限迁移、 METADATA_DISCOVERY:元数据发现。

枚举值:

  • METADATA_MIGRATION

  • PERMISSION_MIGRATION

  • METADATA_DISCOVERY

parameter

JobParameter object

任务参数。

create_time

String

任务创建时间戳,根据创建任务时间生成。

last_success_run_time

String

任务上一次成功运行时间戳,任务运行成功后根据上次执行时间生成。

start_time

String

上次任务执行时间戳,根据上次任务执行时间生成。

status

String

当前状态及含义

  • CREATED:已创建

  • SUBMITTED:已提交

  • RUNNING:运行中

  • SUCCESS:成功

  • FAILED:失败

  • STOPPED:已停止

枚举值:

  • CREATED

  • SUBMITTED

  • RUNNING

  • SUCCESS

  • FAILED

  • STOPPED

表13 JobParameter

参数

参数类型

描述

metadata_migration_parameter

MetaDataMigrationParameter object

元数据迁移参数。

permission_migration_parameter

PermissionMigrationParameter object

权限迁移参数。

metadata_discovery_parameter

MetaDataDiscoveryParameter object

元数据发现参数。

表14 MetaDataMigrationParameter

参数

参数类型

描述

datasource_type

String

数据源类型: ALIYUN_DLF代表Data Lake Formation DLF、 MRS_RDS_FOR_MYSQL代表MRS云数据库RDS(for MySQL)、 OPEN_FOR_MYSQL代表开源HiveMetastore(for MySQL)、 MRS_RDS_FOR_PG代表MRS云数据库RDS(for PostgreSQL)、 MRS_LOCAL_GAUSSDB代表MRS本地数据库(GaussDB)。

枚举值:

  • ALIYUN_DLF

  • MRS_RDS_FOR_MYSQL

  • OPEN_FOR_MYSQL

  • MRS_RDS_FOR_PG

  • MRS_LOCAL_GAUSSDB

datasource_parameter

DataSourceParameter object

数据源参数。

source_catalog

String

源Catalog,要迁移出的catalog。

target_catalog

String

目标Catalog,要迁移至的catalog。

conflict_strategy

String

冲突解决策略,UPSERT表示仅创建和更新现有元数据,不删除。

枚举值:

  • UPSERT

log_location

String

日志存放路径,由用户选择。

sync_objects

Array of strings

迁移元数据对象数组,DATABASE对应数据库,FUNCTION对应函数,TABLE对应表,PARTITION对应分区。

枚举值:

  • DATABASE

  • FUNCTION

  • TABLE

  • PARTITION

default_owner

String

默认用户信息,由用户确定。

locations

Array of LocationReplaceRule objects

路径替换表,由用户确定键值对后生成,最长20条记录。

instance_id

String

实例ID。

ignore_obs_checked

Boolean

忽略内表建表时对Obs路径的限制。

network_type

String

迁移网络类型,包括EIP,VPC_PEERING。

枚举值:

  • EIP

  • VPC_PEERING

accepted_vpc_id

String

对端rds所在的vpcid。

表15 DataSourceParameter

参数

参数类型

描述

jdbc_url

String

JDBC URL。例如:jdbc:protocol://host:port/db_name。

username

String

用户名,只能包含字母、数字,且长度不能超过255个字符。

password

String

密码,此值只在创建或更新任务时可能传入,为空值时代表没有密码或不需要更新密码, 查询和列举时不能暴露密码。

endpoint

String

endpoint URL。例如:xxxx.com。

access_key

String

访问钥匙,此值只在创建或更新任务时可能传入,为空值时代表没有密钥或不需要更新密钥,查询和列举时不能暴露此密钥。

secret_key

String

密钥,此值只在创建或更新任务时可能传入,为空值时代表没有密钥或不需要更新密钥, 查询和列举时不能暴露此密钥。

subnet_ip

String

rds的子网ip

表16 LocationReplaceRule

参数

参数类型

描述

key

String

键,源路径。

value

String

值,替换路径。

表17 PermissionMigrationParameter

参数

参数类型

描述

location

String

用于获取权限迁移的obs文件路径。

file_name

String

权限json文件,文件名中不得包含 <, >, :, ", /, , |, ?, * 这些特殊字符。

log_location

String

日志存放路径,由用户选择。

policy_type

String

权限类型:DLF、RANGER、LAKEFORMATION。

枚举值:

  • DLF

  • RANGER

  • LAKEFORMATION

catalog_id

String

dlf权限策略转换需要传入catalog_id字段。

instance_id

String

实例ID。

ranger_permission_migration_principal_relas

RangerPermissionMigrationPrincipalRelas object

ranger的授权主体转换关系。

表18 RangerPermissionMigrationPrincipalRelas

参数

参数类型

描述

user_to

String

user转换对象, IAM_USER为iam用户, IAM_GROUP为iam群组, ROLE为角色。

枚举值:

  • IAM_USER

  • IAM_GROUP

  • ROLE

user_prefix

String

user转换后的对象名称的前缀。

user_suffix

String

user转换后的对象名称的后缀。

group_to

String

group转换对象, IAM_USER为iam用户, IAM_GROUP为iam群组, ROLE为角色。

枚举值:

  • IAM_USER

  • IAM_GROUP

  • ROLE

group_prefix

String

group转换后的对象名称的前缀。

group_suffix

String

group转换后的对象名称的后缀。

role_to

String

role转换对象, IAM_USER为iam用户, IAM_GROUP为iam群组, ROLE为角色。

枚举值:

  • IAM_USER

  • IAM_GROUP

  • ROLE

role_prefix

String

role转换后的对象名称的前缀。

role_suffix

String

role转换后的对象名称的后缀。

表19 MetaDataDiscoveryParameter

参数

参数类型

描述

data_location

String

数据存储路径,由用户选择。

target_catalog

String

目标Catalog,发现元数据后要保存至的catalog。

target_database

String

目标database,发现元数据后要保存至的database。

conflict_strategy

String

冲突解决策略,UPDATE 表示仅更新现有元数据,不删除,INSERT表示仅创建元数据,不更新,不删除,UPSERT 表示仅创建和更新现有元数据,不删除。

枚举值:

  • UPDATE

  • INSERT

  • UPSERT

file_discovery_type

String

文件发现类型, |- PARQUET open-source columnar storage format for Hadoop CSV stands for Comma Seperated Value JSON stands for Java Script Object Notation ORC stands for Optimized Row Columnar AVRO is a row-oriented remote procedure call and data serialization framework ALL means auto-detected the file types

枚举值:

  • PARQUET

  • CSV

  • JSON

  • ORC

  • AVRO

  • ALL

separator

String

文件的分隔符,常用的分隔符包括逗号,分号等。

quote

String

文件的引号字符,常用的引号字符包括单引号,双引号,\u0000等。

枚举值:

  • DOUBLE_QUOTE

  • SINGLE_QUOTE

  • NULL_QUOTE

escape

String

文件的逃逸字符,常用的逃逸字符有 \。

header

Boolean

文件的第一行是否被认为是header,true为第一行是header,false为不是header。默认为false。

file_sample_rate

Integer

文件采样率 (%),取值范围为 0到100,100表示百分之百全量扫描,0表示每个文件夹下只扫描一个文件。

table_depth

Integer

表深度。假设有路径obs://a/b/c/d/e=1/f=99,用户设置了数据存储路径为obs://a/b,则分组层级2代表以d为分界,d为table名,e=1和f=99说明table d 是分区表,并且分区键为e和f,分区值为1和99。

log_location

String

日志存放路径,由用户选择。

default_owner

String

默认用户信息,默认为创建此任务的用户。

principals

Array of Principal objects

主体信息

give_write

Boolean

是否赋予写权限,true为赋予,false为不赋予。默认为false, 赋予写权限后授权主体将拥有读写权限。

instance_id

String

实例ID

rediscovery_policy

String

重新发现策略:FULL_DISCOVERY全量发现、INCREMENTAL_DISCOVERY增量发现、默认为FULL_DISCOVERY。

枚举值:

  • FULL_DISCOVERY

  • INCREMENTAL_DISCOVERY

execute_strategy

String

元数据发现执行方式:MANNUAL手动执行、SCHEDULE调度执行、默认为MANNUAL。

枚举值:

  • MANNUAL

  • SCHEDULE

execute_frequency

String

元数据发现调度执行频率:可选值为MONTHLY每月执行、WEEKLY每周执行、DAILY每日执行、HOURLY每小时执行。

枚举值:

  • MONTHLY

  • WEEKLY

  • DAILY

  • HOURLY

execute_day

String

元数据发现调度执行的日期时间点,当execute_frequency为MONLY每月执行时,该选项表示每月执行的日期,范围为1~31,注意如果当月实际不存在指定日期时则不执行,如选定了execute_frequency为MONLY且execute_day为30时,则2月不会触发元数据发现任务;当execute_frequency为WEEKLY每周执行时,该选项表示每周执行的日期,范围为1~7;当execute_frequency为DAILY每日执行时或HOURLY每小时执行时,该选项值为*,表示每天都会执行。

execute_hour

String

元数据发现调度执行的小时时间点,当execute_frequency为MONLY每月执行时或WEEKLY每周执行时或DAILY每日执行时,该选项表示选定的天内的执行时间点,范围为0~23;当execute_frequency为HOURLY每小时执行时,该选项值为*,表示每小时都会触发执行。

execute_minute

String

元数据发现调度执行的分钟时间点,范围为0~59,表示会在选定的时间点对应的分钟执行。

表20 Principal

参数

参数类型

描述

principal_type

String

主体类型: USER-用户、 GROUP-组、 ROLE-角色、 SHARE-共享、 OTHER-为其它。

枚举值:

  • USER

  • GROUP

  • ROLE

  • SHARE

  • OTHER

principal_source

String

主体来源: IAM-云用户、 SAML-联邦用户、 LDAP-ld用户、 LOCAL-本地用户、 AGENTTENANT-委托、 OTHER-其它。

枚举值:

  • IAM

  • SAML

  • LDAP

  • LOCAL

  • AGENTTENANT

  • OTHER

principal_name

String

主体名称。只能包含中文、字母、数字和_-.特殊字符,且长度为1~49个字符。

状态码: 400

表21 响应Body参数

参数

参数类型

描述

error_code

String

错误码。

error_msg

String

错误描述。

common_error_code

String

CBC公共错误码。

solution_msg

String

解决方案描述。

状态码: 404

表22 响应Body参数

参数

参数类型

描述

error_code

String

错误码。

error_msg

String

错误描述。

common_error_code

String

CBC公共错误码。

solution_msg

String

解决方案描述。

状态码: 500

表23 响应Body参数

参数

参数类型

描述

error_code

String

错误码。

error_msg

String

错误描述。

common_error_code

String

CBC公共错误码。

solution_msg

String

解决方案描述。

请求示例

POST https://{endpoint}/v1/{project_id}/instances/{instance_id}/lf-jobs

{
  "name" : "testjob",
  "description" : "testjob",
  "type" : "METADATA_MIGRATION",
  "parameter" : {
    "metadata_migration_parameter" : {
      "datasource_type" : "ALIYUN_DLF",
      "datasource_parameter" : {
        "jdbc_url" : "jdbc:protocol://host:port/db_name",
        "username" : "root",
        "password" : "password",
        "endpoint" : "xxxx.com",
        "access_key" : "LTAIxxxxxxxxxxxxxxxxRxPG",
        "secret_key" : "12345xxxxxxxxxxxxxxxxNabcdefgh",
        "subnet_ip" : "127.0.0.1"
      },
      "source_catalog" : "sourceCatalog1",
      "target_catalog" : "targetCatalog1",
      "conflict_strategy" : "UPSERT",
      "log_location" : "obs://logStore/2023",
      "sync_objects" : [ "string" ],
      "default_owner" : "string",
      "locations" : [ {
        "key" : "test/test1",
        "value" : "test2/db"
      } ],
      "instance_id" : "string",
      "ignore_obs_checked" : false,
      "network_type" : "EIP",
      "accepted_vpc_id" : "13551d6b-755d-4757-b956-536f674975c0"
    },
    "permission_migration_parameter" : {
      "location" : "obs://location/uri/",
      "file_name" : "string",
      "log_location" : "obs://logStore/2023",
      "policy_type" : "DLF",
      "catalog_id" : "test_catalog",
      "instance_id" : "string",
      "ranger_permission_migration_principal_relas" : {
        "user_to" : "IAM_USER",
        "user_prefix" : "string",
        "user_suffix" : "string",
        "group_to" : "IAM_USER",
        "group_prefix" : "string",
        "group_suffix" : "string",
        "role_to" : "IAM_USER",
        "role_prefix" : "string",
        "role_suffix" : "string"
      }
    },
    "metadata_discovery_parameter" : {
      "data_location" : "obs://logStore/2023",
      "target_catalog" : "targetCatalog1",
      "target_database" : "targetCatalog1",
      "conflict_strategy" : "UPDATE",
      "file_discovery_type" : "PARQUET",
      "separator" : ",",
      "quote" : "DOUBLE_QUOTE",
      "escape" : "\\",
      "header" : false,
      "file_sample_rate" : 100,
      "table_depth" : 3,
      "log_location" : "obs://logStore/2023",
      "default_owner" : "testOwner",
      "principals" : [ {
        "principal_type" : "USER",
        "principal_source" : "IAM",
        "principal_name" : "user1"
      } ],
      "give_write" : false,
      "instance_id" : "abcdefgh12345678abcdefgh12345678",
      "rediscovery_policy" : "FULL_DISCOVERY",
      "execute_strategy" : "MANNUAL",
      "execute_frequency" : "MONTHLY",
      "execute_day" : 1,
      "execute_hour" : 1,
      "execute_minute" : 1
    }
  }
}

响应示例

状态码: 201

创建任务成功

{
  "id" : "03141229-84cd-4b1b-9733-dd124320c125",
  "name" : "testjob",
  "description" : "testJob",
  "type" : "METADATA_MIGRATION",
  "parameter" : {
    "metadata_migration_parameter" : {
      "datasource_type" : "ALIYUN_DLF",
      "datasource_parameter" : {
        "endpoint" : "protocol://xxxx.xxxx.com"
      },
      "source_catalog" : "sourceCatalog1",
      "target_catalog" : "targetCatalog1",
      "conflict_strategy" : "UPDATE",
      "log_location" : "obs://logStore/2023",
      "sync_objects" : [ "DATABASE" ],
      "locations" : [ {
        "key" : "test/test1",
        "value" : "test2/db"
      } ]
    }
  },
  "status" : {
    "status" : "SUCCESS"
  }
}

状态码: 400

Bad Request

{
  "error_code" : "common.01000001",
  "error_msg" : "failed to read http request, please check your input, code: 400, reason: Type mismatch., cause: TypeMismatchException"
}

状态码: 401

Unauthorized

{
  "error_code": 'APIG.1002',
  "error_msg": 'Incorrect token or token resolution failed'
}

状态码: 403

Forbidden

{
  "error" : {
    "code" : "403",
    "message" : "X-Auth-Token is invalid in the request",
    "error_code" : null,
    "error_msg" : null,
    "title" : "Forbidden"
  },
  "error_code" : "403",
  "error_msg" : "X-Auth-Token is invalid in the request",
  "title" : "Forbidden"
}

状态码: 404

Not Found

{
  "error_code" : "common.01000001",
  "error_msg" : "response status exception, code: 404"
}

状态码: 408

Request Timeout

{
  "error_code" : "common.00000408",
  "error_msg" : "timeout exception occurred"
}

状态码: 500

Internal Server Error

{
  "error_code" : "common.00000500",
  "error_msg" : "internal error"
}

状态码

状态码

描述

201

创建任务成功

400

Bad Request

401

Unauthorized

403

Forbidden

404

Not Found

408

Request Timeout

500

Internal Server Error

错误码

请参见错误码

分享:

    相关文档

    相关产品