计算
弹性云服务器 ECS
Flexus云服务
裸金属服务器 BMS
弹性伸缩 AS
镜像服务 IMS
专属主机 DeH
函数工作流 FunctionGraph
云手机服务器 CPH
Huawei Cloud EulerOS
网络
虚拟私有云 VPC
弹性公网IP EIP
虚拟专用网络 VPN
弹性负载均衡 ELB
NAT网关 NAT
云专线 DC
VPC终端节点 VPCEP
云连接 CC
企业路由器 ER
企业交换机 ESW
全球加速 GA
安全与合规
安全技术与应用
Web应用防火墙 WAF
企业主机安全 HSS
云防火墙 CFW
安全云脑 SecMaster
DDoS防护 AAD
数据加密服务 DEW
数据库安全服务 DBSS
云堡垒机 CBH
数据安全中心 DSC
云证书管理服务 CCM
边缘安全 EdgeSec
威胁检测服务 MTD
CDN与智能边缘
内容分发网络 CDN
CloudPond云服务
智能边缘云 IEC
迁移
主机迁移服务 SMS
对象存储迁移服务 OMS
云数据迁移 CDM
迁移中心 MGC
大数据
MapReduce服务 MRS
数据湖探索 DLI
表格存储服务 CloudTable
云搜索服务 CSS
数据接入服务 DIS
数据仓库服务 GaussDB(DWS)
数据治理中心 DataArts Studio
数据可视化 DLV
数据湖工厂 DLF
湖仓构建 LakeFormation
企业应用
云桌面 Workspace
应用与数据集成平台 ROMA Connect
云解析服务 DNS
专属云
专属计算集群 DCC
IoT物联网
IoT物联网
设备接入 IoTDA
智能边缘平台 IEF
用户服务
账号中心
费用中心
成本中心
资源中心
企业管理
工单管理
国际站常见问题
ICP备案
我的凭证
支持计划
客户运营能力
合作伙伴支持计划
专业服务
区块链
区块链服务 BCS
Web3节点引擎服务 NES
解决方案
SAP
高性能计算 HPC
视频
视频直播 Live
视频点播 VOD
媒体处理 MPC
实时音视频 SparkRTC
数字内容生产线 MetaStudio
存储
对象存储服务 OBS
云硬盘 EVS
云备份 CBR
存储容灾服务 SDRS
高性能弹性文件服务 SFS Turbo
弹性文件服务 SFS
云硬盘备份 VBS
云服务器备份 CSBS
数据快递服务 DES
专属分布式存储服务 DSS
容器
云容器引擎 CCE
容器镜像服务 SWR
应用服务网格 ASM
华为云UCS
云容器实例 CCI
管理与监管
云监控服务 CES
统一身份认证服务 IAM
资源编排服务 RFS
云审计服务 CTS
标签管理服务 TMS
云日志服务 LTS
配置审计 Config
资源访问管理 RAM
消息通知服务 SMN
应用运维管理 AOM
应用性能管理 APM
组织 Organizations
优化顾问 OA
IAM 身份中心
云运维中心 COC
资源治理中心 RGC
应用身份管理服务 OneAccess
数据库
云数据库 RDS
文档数据库服务 DDS
数据管理服务 DAS
数据复制服务 DRS
云数据库 GeminiDB
云数据库 GaussDB
分布式数据库中间件 DDM
数据库和应用迁移 UGO
云数据库 TaurusDB
人工智能
人脸识别服务 FRS
图引擎服务 GES
图像识别 Image
内容审核 Moderation
文字识别 OCR
AI开发平台ModelArts
图像搜索 ImageSearch
对话机器人服务 CBS
华为HiLens
视频智能分析服务 VIAS
语音交互服务 SIS
应用中间件
分布式缓存服务 DCS
API网关 APIG
微服务引擎 CSE
分布式消息服务Kafka版
分布式消息服务RabbitMQ版
分布式消息服务RocketMQ版
多活高可用服务 MAS
事件网格 EG
企业协同
华为云会议 Meeting
云通信
消息&短信 MSGSMS
云生态
合作伙伴中心
云商店
开发者工具
SDK开发指南
API签名指南
Terraform
华为云命令行工具服务 KooCLI
其他
产品价格详情
系统权限
管理控制台
客户关联华为云合作伙伴须知
消息中心
公共问题
开发与运维
应用管理与运维平台 ServiceStage
软件开发生产线 CodeArts
需求管理 CodeArts Req
部署 CodeArts Deploy
性能测试 CodeArts PerfTest
编译构建 CodeArts Build
流水线 CodeArts Pipeline
制品仓库 CodeArts Artifact
测试计划 CodeArts TestPlan
代码检查 CodeArts Check
代码托管 CodeArts Repo
云应用引擎 CAE
开天aPaaS
云消息服务 KooMessage
云手机服务 KooPhone
云空间服务 KooDrive

转储至OBS

更新时间:2023-03-29 GMT+08:00

源数据类型JSON/BLOB/CSV==>转储文件格式Text

表1 转储Text格式文件的配置参数

参数

说明

取值

任务名称

用户创建转储任务时,需要指定转储任务名称,同一通道的转储任务名称不可重复。任务名称由英文字母、数字、中划线和下划线组成。长度为1~64个字符。

-

数据转储地址

存储该通道数据的OBS桶名称。桶名称在“对象存储服务”中“创建桶”时创建。

-

转储文件目录

在OBS中存储通道文件的自定义目录,多级目录可用“/”进行分隔,不能以“/”开头。

取值范围:0~50个字符。

默认配置为空。

-

时间目录格式

数据将存储在OBS桶中转储文件目录下,按时间格式作为层级的目录中。

当选择的时间目录格式精确到日时,存储目录为“桶名称/转储文件目录/年/月/日”。

取值范围:
  • N/A:置空,不使用日期时间目录。
  • yyyy:年
  • yyyy/MM:年/月
  • yyyy/MM/dd:年/月/日
  • yyyy/MM/dd/HH:年/月/日/时
  • yyyy/MM/dd/HH/mm:年/月/日/时/分

此配置项仅支持选择,不可手动输入。

-

记录分隔符

进行OBS转储时,分隔不同转储记录的分隔符。

取值范围:
  • 逗号 ","
  • 分号 ";"
  • 竖线 "|"
  • 换行符 "\n"
  • NULL

此配置项仅支持选择,不可手动输入。

-

偏移量

  • 最新:最大偏移量,即获取最新的有效数据。
  • 最早:最小偏移量,即读取最早的有效数据。

最新

数据转储周期

根据用户配置的时间,周期性的将数据导入目的地(OBS,MRS,DLI,DWS),若某个时间段内无数据,则此时间段不会生成打包文件。

取值范围:30~900。

单位:秒。

默认配置为300秒。

-

源数据类型JSON==>转储文件格式CSV

表2 转储CSV格式文件的配置参数

参数

说明

取值

任务名称

用户创建转储任务时,需要指定转储任务名称,同一通道的转储任务名称不可重复。任务名称由英文字母、数字、中划线和下划线组成。长度为1~64个字符。

-

数据转储地址

存储该通道数据的OBS桶名称。桶名称在“对象存储服务”中“创建桶”时创建。

-

转储文件目录

在OBS中存储通道文件的自定义目录,多级目录可用“/”进行分隔,不能以“/”开头。

取值范围:0~50个字符。

默认配置为空。

-

时间目录格式

数据将存储在OBS桶中转储文件目录下,按时间格式作为层级的目录中。

当选择的时间目录格式精确到日时,存储目录为“桶名称/转储文件目录/年/月/日”。

取值范围:
  • N/A:置空,不使用日期时间目录。
  • yyyy:年
  • yyyy/MM:年/月
  • yyyy/MM/dd:年/月/日
  • yyyy/MM/dd/HH:年/月/日/时
  • yyyy/MM/dd/HH/mm:年/月/日/时/分

此配置项仅支持选择,不可手动输入。

-

偏移量

  • 最新:最大偏移量,即获取最新的有效数据。
  • 最早:最小偏移量,即读取最早的有效数据。

最新

数据转储周期

根据用户配置的时间,周期性的将数据导入目的地,若某个时间段内无数据,则此时间段不会生成打包文件。

取值范围:30~900。

单位:秒。

默认配置为300秒。

-

源数据类型JSON/CSV==>转储文件格式Parquet

说明:

表3罗列了源数据类型为JSON,CSV,转储至OBS(对应转储文件格式Parquet)时需要配置的差异化参数,共性参数的配置请参见表1

表3 转储Parquet格式文件的配置参数

参数

说明

取值

源数据Schema

用户的JSON或CSV数据样例,用于描述JSON或CSV数据格式。DIS可以根据此JSON或CSV数据样例生成Avro schema, 将通道内上传的JSON或CSV数据转换为Parquet格式。

-

转储文件目录

在OBS中存储通道文件的自定义目录,多级目录可用“/”进行分隔,不能以“/”开头。

取值范围:0~100个字符。

默认配置为空。

说明:

源数据类型为JSON时,支持EL表达式和内置函数。

  • EL表达式示例:

源数据:

{"name":"Andy","city":"","time":1556323141582}

转储文件目录配置如下:

dis/basePath/app_key_p=${name}

则数据的最终存储目录结构为:

{$桶名称}/dis/basePath/app_key_p=Andy

  • 内置函数示例:

源数据:

{"name":"Andy","city":"","time":1556323141582}

转储文件目录配置如下:

dis/basePath/date_p=toDate(${time}, "yyMMdd")

则数据的最终存储目录结构为:

{$桶名称}/dis-basePath/date_p=20190427

支持的内置函数列表:

toDate(timestamp,format):将时间戳转化为指定的时间格式,例如:toDate(1556323141582,'yymmdd')

自定义时间目录

通过单击或来关闭或开启自定义时间戳开关。

  • 关闭自定义时间戳开关,则写到OBS的Object文件所在的目录层次结构,将使用转储文件的生成时间。

    例如系统在2018年10月16日生成转储文件,选择“时间目录格式”精确到日,则数据转储成功后,在OBS的存储目录为“桶名称/转储文件目录/2018/10/16”。

  • 开启自定义时间戳开关,则写到OBS的Object文件所在的目录层次结构,将使用源数据中定义的时间。

    例如您在2018年10月16日创建某转储任务,选择“时间目录格式”精确到日,待上传的源数据中已定义时间字段"2017/09/08 11:01:01",则数据转储成功后,在OBS的存储目录为“桶名称/转储文件目录/2017/09/08”。存储目录按照源数据中定义的时间字段进行定义,而不是转储文件的生成时间。

  • 示例1:转储简单的Json数据。

源数据:

{ "id":"1", "date":"2018/10/16 11:00:05"}

配置如下:

根据待转储的源数据类型,分别设置“时间戳属性名”“date”,数据类型为“String”,时间戳格式为“yyyy/MM/dd HH:mm:ss”

因数据转储成功后,存储的目录结构取决于源数据的时间戳和时间目录格式定义的年月日层级。本示例中,时间目录格式精确到日,所以数据最终存储目录结构为“桶名称/转储文件目录/2018/10/16”。

  • 示例2:转储多层嵌套的Json数据。

    源数据:

    { "id":"1", "detail":{ "detID":"05790110000000000103#567fd3cb13a4493eaa43076953253eed", "endTime":"2018/10/07 13:26:35" }}

配置如下:

根据待转储的源数据类型,分别设置“时间戳属性名”“detail.endTime”,数据类型为“String”,时间戳格式为“yyyy/MM/dd HH:mm:ss”

因数据转储成功后,存储的目录结构取决于源数据的时间戳和时间目录格式定义的年月日层级。本示例中,时间目录格式精确到日,所以数据最终存储目录结构为“桶名称/转储文件目录/2018/10/07”。

  • 示例3:转储CSV格式的数据。

源数据:

a,2010-10-12 11:00:00,b,2011-10-12 11:00:10

配置如下:

根据待转储的源数据,选定时间戳“2010-10-12 11:00:00”,经DIS转换为Parquet格式后,对应的属性字段名称为field_1。则创建转储任务时分别设置“时间戳属性名”“field_1”,数据类型为“String”,时间戳格式为“yyyy/MM/dd HH:mm:ss”

因数据转储成功后,存储的目录结构取决于源数据的时间戳和时间目录格式定义的年月日层级。本示例中,时间目录格式精确到日,所以数据最终存储目录结构为“桶名称/转储文件目录/2010/10/12”。

源数据时间戳

  • 时间戳的属性名。
    说明:

    请输入您待上传的源数据中定义的时间戳对应的字段名称。

  • 时间戳的格式,从下拉框中选择。

    yyyy/MM/dd HH:mm:ss

    MM/dd/yyyy HH:mm:ss

    dd/MM/yyyy HH:mm:ss

    yyyy-MM-dd HH:mm:ss

    MM-dd-yyyy HH:mm:ss

    dd-MM-yyyy HH:mm:ss

  • 数据类型,从下拉框中选择。
    • String
    • Timestamp
      说明:

      当您待上传的源数据类型为Timestamp,请精确到毫秒级。

源数据类型JSON/CSV==>转储文件格式CarbonData

说明:

表4罗列了源数据类型为JSON,CSV,转储至OBS(对应转储文件格式CarbonData)时需要配置的差异化参数,共性参数的配置请参见表1

表4 转储CarbonData格式文件的配置参数

参数

说明

取值

源数据Schema

用户的JSON或CSV数据样例,用于描述JSON或CSV数据格式。DIS可以根据此JSON或CSV数据样例生成Avro schema, 将通道内上传的JSON或CSV数据转换为CarbonData格式。

-

CarbonData检索属性

carbon表属性,用于创建carbon writer。

支持的Key如下:

  • table_blocksize:表的block大小,取值范围是1~2048MB,默认值是1024MB。
  • table_blocklet_size:文件内的Blocklet大小,默认值是64MB。
  • local_dictionary_enable:配置为true或者false,默认值是false。
  • sort_columns:指定索引列,多级索引列用“,”分隔。
  • sort_scope:加载时,数据排序的范围。目前支持如下几种:
    • local_sort:默认值,表示在一个node下做数据排序;
    • no_sort:即不排序,在需要快速入库时使用,可以在入库后系统闲时通过Compaction命令再建立索引;
    • batch_sort:表示在一个node下,内存排序后直接生成CarbonData文件,不再进行node下的全排序;使用该配置,可以提升加载速度,但查询性能不如LOCAL_SORT;

-

我们使用cookie来确保您的高速浏览体验。继续浏览本站,即表示您同意我们使用cookie。 详情

文档反馈

文档反馈

意见反馈

0/500

标记内容

同时提交标记内容