网络
虚拟私有云 VPC
弹性公网IP EIP
弹性负载均衡 ELB
NAT网关 NAT
云专线 DC
虚拟专用网络 VPN
云连接 CC
VPC终端节点 VPCEP
企业路由器 ER
企业交换机 ESW
全球加速 GA
企业连接 EC
云原生应用网络 ANC
安全与合规
安全技术与应用
Web应用防火墙 WAF
企业主机安全 HSS
云防火墙 CFW
安全云脑 SecMaster
DDoS防护 AAD
数据加密服务 DEW
数据库安全服务 DBSS
云堡垒机 CBH
数据安全中心 DSC
云证书管理服务 CCM
威胁检测服务 MTD
态势感知 SA
认证测试中心 CTC
边缘安全 EdgeSec
应用中间件
微服务引擎 CSE
分布式消息服务Kafka版
分布式消息服务RabbitMQ版
分布式消息服务RocketMQ版
API网关 APIG
分布式缓存服务 DCS
多活高可用服务 MAS
事件网格 EG
管理与监管
统一身份认证服务 IAM
消息通知服务 SMN
云监控服务 CES
应用运维管理 AOM
应用性能管理 APM
云日志服务 LTS
云审计服务 CTS
标签管理服务 TMS
配置审计 Config
应用身份管理服务 OneAccess
资源访问管理 RAM
组织 Organizations
资源编排服务 RFS
优化顾问 OA
IAM 身份中心
云运维中心 COC
资源治理中心 RGC
解决方案
高性能计算 HPC
SAP
混合云灾备
开天工业工作台 MIW
Haydn解决方案工厂
数字化诊断治理专家服务
云生态
云商店
合作伙伴中心
华为云开发者学堂
华为云慧通差旅
开发与运维
软件开发生产线 CodeArts
需求管理 CodeArts Req
流水线 CodeArts Pipeline
代码检查 CodeArts Check
编译构建 CodeArts Build
部署 CodeArts Deploy
测试计划 CodeArts TestPlan
制品仓库 CodeArts Artifact
移动应用测试 MobileAPPTest
CodeArts IDE Online
开源镜像站 Mirrors
性能测试 CodeArts PerfTest
应用管理与运维平台 ServiceStage
云应用引擎 CAE
开源治理服务 CodeArts Governance
华为云Astro轻应用
CodeArts IDE
Astro工作流 AstroFlow
代码托管 CodeArts Repo
漏洞管理服务 CodeArts Inspector
联接 CodeArtsLink
软件建模 CodeArts Modeling
Astro企业应用 AstroPro
CodeArts盘古助手
华为云Astro大屏应用
计算
弹性云服务器 ECS
Flexus云服务
裸金属服务器 BMS
云手机服务器 CPH
专属主机 DeH
弹性伸缩 AS
镜像服务 IMS
函数工作流 FunctionGraph
云耀云服务器(旧版)
VR云渲游平台 CVR
Huawei Cloud EulerOS
云化数据中心 CloudDC
网络
虚拟私有云 VPC
弹性公网IP EIP
弹性负载均衡 ELB
NAT网关 NAT
云专线 DC
虚拟专用网络 VPN
云连接 CC
VPC终端节点 VPCEP
企业路由器 ER
企业交换机 ESW
全球加速 GA
企业连接 EC
云原生应用网络 ANC
CDN与智能边缘
内容分发网络 CDN
智能边缘云 IEC
智能边缘平台 IEF
CloudPond云服务
安全与合规
安全技术与应用
Web应用防火墙 WAF
企业主机安全 HSS
云防火墙 CFW
安全云脑 SecMaster
DDoS防护 AAD
数据加密服务 DEW
数据库安全服务 DBSS
云堡垒机 CBH
数据安全中心 DSC
云证书管理服务 CCM
威胁检测服务 MTD
态势感知 SA
认证测试中心 CTC
边缘安全 EdgeSec
大数据
MapReduce服务 MRS
数据湖探索 DLI
表格存储服务 CloudTable
可信智能计算服务 TICS
推荐系统 RES
云搜索服务 CSS
数据可视化 DLV
数据接入服务 DIS
数据仓库服务 GaussDB(DWS)
数据治理中心 DataArts Studio
湖仓构建 LakeFormation
智能数据洞察 DataArts Insight
应用中间件
微服务引擎 CSE
分布式消息服务Kafka版
分布式消息服务RabbitMQ版
分布式消息服务RocketMQ版
API网关 APIG
分布式缓存服务 DCS
多活高可用服务 MAS
事件网格 EG
开天aPaaS
应用平台 AppStage
开天企业工作台 MSSE
开天集成工作台 MSSI
API中心 API Hub
云消息服务 KooMessage
交换数据空间 EDS
云地图服务 KooMap
云手机服务 KooPhone
组织成员账号 OrgID
云空间服务 KooDrive
管理与监管
统一身份认证服务 IAM
消息通知服务 SMN
云监控服务 CES
应用运维管理 AOM
应用性能管理 APM
云日志服务 LTS
云审计服务 CTS
标签管理服务 TMS
配置审计 Config
应用身份管理服务 OneAccess
资源访问管理 RAM
组织 Organizations
资源编排服务 RFS
优化顾问 OA
IAM 身份中心
云运维中心 COC
资源治理中心 RGC
区块链
区块链服务 BCS
数字资产链 DAC
华为云区块链引擎服务 HBS
解决方案
高性能计算 HPC
SAP
混合云灾备
开天工业工作台 MIW
Haydn解决方案工厂
数字化诊断治理专家服务
价格
成本优化最佳实践
专属云商业逻辑
云生态
云商店
合作伙伴中心
华为云开发者学堂
华为云慧通差旅
其他
管理控制台
消息中心
产品价格详情
系统权限
客户关联华为云合作伙伴须知
公共问题
宽限期保留期
奖励推广计划
活动
云服务信任体系能力说明
开发与运维
软件开发生产线 CodeArts
需求管理 CodeArts Req
流水线 CodeArts Pipeline
代码检查 CodeArts Check
编译构建 CodeArts Build
部署 CodeArts Deploy
测试计划 CodeArts TestPlan
制品仓库 CodeArts Artifact
移动应用测试 MobileAPPTest
CodeArts IDE Online
开源镜像站 Mirrors
性能测试 CodeArts PerfTest
应用管理与运维平台 ServiceStage
云应用引擎 CAE
开源治理服务 CodeArts Governance
华为云Astro轻应用
CodeArts IDE
Astro工作流 AstroFlow
代码托管 CodeArts Repo
漏洞管理服务 CodeArts Inspector
联接 CodeArtsLink
软件建模 CodeArts Modeling
Astro企业应用 AstroPro
CodeArts盘古助手
华为云Astro大屏应用
存储
对象存储服务 OBS
云硬盘 EVS
云备份 CBR
高性能弹性文件服务 SFS Turbo
弹性文件服务 SFS
存储容灾服务 SDRS
云硬盘备份 VBS
云服务器备份 CSBS
数据快递服务 DES
云存储网关 CSG
专属分布式存储服务 DSS
数据工坊 DWR
地图数据 MapDS
键值存储服务 KVS
容器
云容器引擎 CCE
云容器实例 CCI
容器镜像服务 SWR
云原生服务中心 OSC
应用服务网格 ASM
华为云UCS
数据库
云数据库 RDS
数据复制服务 DRS
文档数据库服务 DDS
分布式数据库中间件 DDM
云数据库 GaussDB
云数据库 GeminiDB
数据管理服务 DAS
数据库和应用迁移 UGO
云数据库 TaurusDB
人工智能
AI开发平台ModelArts
华为HiLens
图引擎服务 GES
图像识别 Image
文字识别 OCR
自然语言处理 NLP
内容审核 Moderation
图像搜索 ImageSearch
医疗智能体 EIHealth
企业级AI应用开发专业套件 ModelArts Pro
人脸识别服务 FRS
对话机器人服务 CBS
语音交互服务 SIS
人证核身服务 IVS
视频智能分析服务 VIAS
城市智能体
自动驾驶云服务 Octopus
盘古大模型 PanguLargeModels
IoT物联网
设备接入 IoTDA
全球SIM联接 GSL
IoT数据分析 IoTA
路网数字化服务 DRIS
IoT边缘 IoTEdge
设备发放 IoTDP
企业应用
域名注册服务 Domains
云解析服务 DNS
企业门户 EWP
ICP备案
商标注册
华为云WeLink
华为云会议 Meeting
隐私保护通话 PrivateNumber
语音通话 VoiceCall
消息&短信 MSGSMS
云管理网络
SD-WAN 云服务
边缘数据中心管理 EDCM
云桌面 Workspace
应用与数据集成平台 ROMA Connect
ROMA资产中心 ROMA Exchange
API全生命周期管理 ROMA API
政企自服务管理 ESM
视频
实时音视频 SparkRTC
视频直播 Live
视频点播 VOD
媒体处理 MPC
视频接入服务 VIS
数字内容生产线 MetaStudio
迁移
主机迁移服务 SMS
对象存储迁移服务 OMS
云数据迁移 CDM
迁移中心 MGC
专属云
专属计算集群 DCC
开发者工具
SDK开发指南
API签名指南
DevStar
华为云命令行工具服务 KooCLI
Huawei Cloud Toolkit
CodeArts API
云化转型
云架构中心
云采用框架
用户服务
账号中心
费用中心
成本中心
资源中心
企业管理
工单管理
客户运营能力
国际站常见问题
支持计划
专业服务
合作伙伴支持计划
我的凭证
华为云公共事业服务云平台
工业软件
工业数字模型驱动引擎
硬件开发工具链平台云服务
工业数据转换引擎云服务
本文导读

创建CDL数据同步任务作业

更新时间:2024-08-01 GMT+08:00
分享

操作场景

CDLService WebUI提供可视化的作业编排页面,用户可快速创建CDL作业,实现实时数据入湖。

前提条件

开启Kerberos认证的集群需已创建具有CDL管理操作权限的用户。

操作步骤

  1. 使用具有CDL管理操作权限的用户或admin用户(未开启Kerberos认证的集群)登录CDLService WebUI界面,请参考登录CDLService WebUI界面
  2. 选择“作业管理 > 数据同步任务 > 新建作业”,在弹出的窗口中输入作业相关信息,然后单击“下一步”。

    参数名称

    描述

    示例

    Name

    作业名称。

    job_pgsqltokafka

    Desc

    描述信息。

    xxx

  3. 在“作业管理”界面,根据业务数据流向,从界面左侧列表中分别选择“Source”和“Sink”中数据连接元素并将其拖到右侧的操作界面中。

    MRS 3.2.0版本:

    MRS 3.3.0及之后版本:

    双击数据连接元素,并配置对应参数。

    如需删除数据连接元素,选择该目标并单击界面右下角的“删除”。

    表1 MySQL作业参数

    参数名称

    描述

    示例

    Link

    已创建的MySQL连接。

    mysqllink

    Tasks Max

    允许Connector创建的最大Task的数量,数据库类型的Connector只允许配置为1。

    1

    Mode

    任务需要抓取的CDC事件类型。

    • insert:插入操作
    • update:更新操作
    • delete:删除操作

    insert、update、delete

    DB Name

    MySQL数据库名称。

    cdl-test

    Schema Auto Create

    是否在启动任务时抓取表的Schema信息。

    Connect With Hudi

    是否对接Hudi。

    DBZ Snapshot Locking Mode

    任务启动执行快照时的锁模式。

    • minimal:仅在获取数据库schema和其他元数据时,持有全局读锁。
    • extend:在整个执行快照期间都持有全局读锁,阻塞全部写入操作。
    • none: 无锁模式,要求启动CDL任务期间不能有schema的变更。

      可选参数,单击显示该参数。

    none

    WhiteList

    待抓取表的白名单。

    配置需要抓取的表的名单列表,多个表可以用英文逗号分隔,支持通配符。

    可选参数,单击显示该参数。

    testtable

    BlackList

    表的黑名单。

    配置不需要抓取的表的名单列表,多个表可以用英文逗号分隔,支持通配符。

    可选参数,单击显示该参数。

    -

    Multi Partition

    是否开启Topic的多分区。

    开启之后需要配置“Topic TableMapping”并指定Topic的分区数量, 单表数据将分散在多个分区中。

    可选参数,单击显示该参数。

    说明:
    • 此配置项为高危配置, 开启后无法保证数据的时间顺序。
    • 默认分区数为“5”,如果需修改则需登录FusionInsight Manager,选择“集群 > 服务 > CDL > 配置”,在搜索框中搜索“topics.max.partitions”并修改该值为需要修改的分区数,例如,修改值为“10”,保存配置并重启CDL服务。
    • MRS 3.3.0及之后版本,当源端表为分区表且该参数为否时,CDL创建的Topic分区表数量为源端表分区数量+1。

    Topic Table Mapping

    Topic与表的映射关系。

    用于指定某个表的数据发送到指定的Topic中,开启多分区功能后需要配置Topic的分区数,分区数必须大于1。MRS 3.3.0及之后版本,数据过滤时间用于过滤数据,当源端数据的时间小于设定时间时,该数据将会被丢弃,当源端数据的时间大于设定时间时,该数据发送到下游。

    单击显示该参数。如果“Connect With Hudi”选择“是”,则该参数为必填项。

    testtable

    testtable_topic

    2023/03/10 11:33:37(MRS 3.3.0及之后版本支持)

    表2 PgSQL作业参数

    参数名称

    描述

    示例

    Link

    已创建的PgSQL连接。

    pgsqllink

    Tasks Max

    允许Connector创建的最大Task的数量,数据库类型的Connector只允许配置为1。

    1

    Mode

    任务需要抓取的CDC事件类型。

    • insert:插入操作
    • update:更新操作
    • delete:删除操作

    insert、update、delete

    dbName Alias

    数据库名称。

    test

    Schema

    待连接的数据库的Schema名称。

    public

    Slot Name

    PgSQL逻辑复制槽的名称。

    不同任务之间槽名不能重名,支持小写字母和下划线。

    test_solt

    Enable FailOver Slot

    开启Failover Slot功能,将指定为Failover Slot的逻辑复制槽信息从主实例同步到备实例,当主备切换之后逻辑订阅能够继续进行,实现逻辑复制槽的故障转移。

    Slot Drop

    任务停止时是否删除Slot。

    Connect With Hudi

    是否对接Hudi。

    Use Exist Publication

    使用已创建的publication。

    Publication Name

    已创建的publication名称。

    “Use Exist Publication”选择“是”时显示该参数。

    test

    Start Time(MRS 3.2.0版本)

    同步表的起始时间。

    2022/03/16 11:33:37

    Data Filter Time(MRS 3.3.0及之后版本)

    数据过滤的起始时间。

    2022/03/16 11:33:37

    WhiteList

    待抓取表的白名单。

    配置需要抓取的表的名单列表,多个表可以用英文逗号分隔,支持通配符。

    可选参数,单击显示该参数。

    testtable

    BlackList

    表的黑名单。

    配置不需要抓取的表的名单列表,多个表可以用英文逗号分隔,支持通配符。

    可选参数,单击显示该参数。

    -

    Start Position

    任务抓取数据的起始LSN位置。

    仅MRS 3.2.0版本支持。

    -

    Start Txid

    任务抓取数据的起始TXID位置。

    仅MRS 3.2.0版本支持。

    -

    Multi Partition

    是否开启Topic的多分区。

    开启之后需要配置“Topic TableMapping”并指定Topic的分区数量, 单表数据将分散在多个分区中。

    可选参数,单击显示该参数。

    说明:
    • 此配置项为高危配置, 开启后无法保证数据的时间顺序。
    • 默认分区数为“5”,如果需修改则需登录FusionInsight Manager,选择“集群 > 服务 > CDL > 配置”,在搜索框中搜索“topics.max.partitions”并修改该值为需要修改的分区数,例如,修改值为“10”,保存配置并重启CDL服务。
    • MRS 3.3.0及之后版本,当源端表为分区表且该参数为否时,CDL创建的Topic分区表数量为源端表分区数量+1。

    Topic Table Mapping

    Topic与表的映射关系。

    用于指定某个表的数据发送到指定的Topic中,开启多分区功能后需要配置Topic的分区数,分区数必须大于1。MRS 3.3.0及之后版本,数据过滤时间用于过滤数据,当源端数据的时间小于设定时间时,该数据将会被丢弃,当源端数据的时间大于设定时间时,该数据发送到下游。

    单击显示该参数。如果“Connect With Hudi”选择“是”,则该参数为必填项。

    testtable

    testtable_topic

    2023/03/10 11:33:37(MRS 3.3.0及之后版本)

    表3 Source Hudi作业参数(MRS 3.2.0版本)

    参数名称

    描述

    示例

    Link

    Hudi App使用的Link。

    hudilink

    Interval

    同步Hudi表的时间间隔,单位:秒。

    10

    Start Time

    同步表的起始时间。

    2022/03/16 11:40:52

    Max Commit Number

    单次增量视图拉取Commit的最大数量。

    10

    Hudi Custom Config

    Hudi相关的自定义配置。

    -

    Table Info

    同步表的详细配置信息。要求Hudi与DWS的表名一致,且字段类型相同。

    {"table1":[{"source.database":"base1","source.tablename":"table1"}],"table2":[{"source.database":"base2","source.tablename":"table2"}],"table3":[{"source.database":"base3","source.tablename":"table3"}]}

    Execution Env

    Hudi App运行时需要的环境变量,当前如果无可用的ENV,则需先手动创建ENV。

    defaultEnv

    表4 Source Hudi作业参数(MRS 3.3.0及之后版本)

    参数名称

    描述

    示例

    Link

    Hudi App使用的Link。

    hudilink

    Interval

    同步Hudi表的时间间隔,单位:秒。

    10

    Data Filter Time

    数据过滤时间。

    2023/08/16 11:40:52

    Max Commit Number

    单次增量视图拉取Commit的最大数量。

    10

    Hudi表属性配置方式

    Hudi表属性配置方式,包括:

    • 可视化视图。
    • JSON视图。

    可视化视图

    Hudi Custom Config

    Hudi相关的自定义配置。

    -

    Table Info

    同步表的详细配置信息。要求Hudi与DWS的表名一致,且字段类型相同。

    {"table1":[{"source.database":"base1","source.tablename":"table1"}],"table2":[{"source.database":"base2","source.tablename":"table2"}],"table3":[{"source.database":"base3","source.tablename":"table3"}]}

    Table Info-Section Name

    单表标签名称,仅支持数字、字母、下划线。

    -

    Table Info-Source DataBase

    需要同步的Hudi数据库名称。

    base1

    Table Info-Source TableName

    需要同步的Hudi表名。

    table1

    Table Info-Target SchemaName

    数据写入目标数据库的Schema名称。

    -

    Table Info-Target TableName

    数据写入目标数据库的表名称。

    -

    Table Info-Enable Sink Precombine

    目标数据库是否启用预合并,当前仅支持目标库为DWS时启用预合并功能。

    该功能用于当新值预合并字段比目标端预合并字段大时,则覆盖目标端已有数据;当新值预合并字段比目标端预合并字段小时,则丢弃新数据。

    Table Info-Custom Config

    Hudi自定义配置。

    -

    Execution Env

    Hudi App运行时需要的环境变量,当前如果无可用的ENV,则需先手动创建ENV。

    defaultEnv

    表5 Source Kafka作业参数(仅适用于MRS 3.2.0版本)

    参数名称

    描述

    示例

    Link

    已创建的kafka连接。

    kafkalink

    表6 thirdparty-kafka作业参数

    参数名称

    描述

    示例

    Link

    已创建的thirdparty-kafka连接。

    thirdparty-kafkalink

    DB Name

    待连接的数据库名称,名称只能由英文字母、数字、下划线和中划线组成,且必须以英文字母开头。

    opengaussdb

    Schema

    待检测数据库的Schema名称。

    oprngaussschema

    Datastore Type

    上层源的类型。

    • MRS 3.2.0版本:
      • opengauss
      • ogg
      • oracle
      • drs-avro-oracle
    • MRS 3.3.0及之后版本:
      • drs-opengauss-json
      • ogg-oracle-avro
      • drs-oracle-json
      • drs-oracle-avro
    • opengauss
    • drs-opengauss-json

    Avro Schema Topic

    Ogg Kafka使用的Schema Topic以JSON格式存储表的Schema。

    说明:

    “Datastore Type”为“ogg”(MRS 3.3.0及之后版本为“ogg-oracle-avro”)显示该参数。

    ogg_topic

    Source Topics

    源端Topic可以包含英文字母、数字、特殊字符(-,_),各Topic应该以英文逗号分隔。

    topic1

    Tasks Max

    允许Connector创建的最大Task的数量,数据库类型的Connector只允许配置为1。

    10

    Tolerance

    容灾策略。

    • none表示低容错,即出错后导致Connector任务失败。
    • all表示高容错,出错后忽略失败的记录并继续运行。

    all

    Start Time(MRS 3.2.0版本)

    同步表的起始时间。

    2022/03/16 14:14:50

    Data Filter Time(MRS 3.3.0及之后版本)

    数据过滤的起始时间。

    2022/03/16 14:14:50

    Kaka Message Format

    Kafka中的消息格式,包括:

    • Debezium Json
    • CDL Json
    说明:
    • 仅MRS 3.3.0及之后版本支持该参数。
    • 仅“Datastore Type”为“drs-opengauss-json”时支持该参数。

    CDL Json

    Multi Partition

    是否开启Topic多分区功能,开启之后需要配置Topic TableMapping并指定Topic的分区数量, 单表数据将分散在多个分区中。其中:

    • MRS 3.2.0版本,“Datastore Type”参数值为“ogg”或“drs-avro-oracle”或“oracle”时不支持开启Topic多分区功能。
    • MRS 3.3.0及之后版本,当“Datastore Type”参数值为“ogg-oracle-avro”或“drs-oracle-avro”或“drs-oracle-json”时不支持开启Topic多分区功能。
    说明:

    默认分区数为“5”,如果需修改则需登录FusionInsight Manager,选择“集群 > 服务 > CDL > 配置”,在搜索框中搜索“topics.max.partitions”并修改该值为需要修改的分区数,例如,修改值为“10”,保存配置并重启CDL服务。

    Topic Table Mapping

    Topic与表的映射关系。

    用于指定某个表的数据发送到指定的Topic中,开启多分区功能后需要配置Topic的分区数,分区数必须大于1。MRS 3.3.0及之后版本,数据过滤时间用于过滤数据,当源端数据的时间小于设定时间时,该数据将会被丢弃,当源端数据的时间大于设定时间时,该数据发送到下游。

    testtable

    testtable_topic

    2023/03/10 11:33:37(MRS 3.3.0及之后版本)

    表7 opengauss作业参数(仅适用于MRS 3.3.0及之后版本)

    参数名称

    描述

    示例

    Link

    已创建的opengauss连接。

    opengausslink

    Tasks Max

    允许Connector创建的最大Task的数量,值为“1”。

    1

    Mode

    任务需要抓取的CDC事件类型。

    • insert:插入操作
    • update:更新操作
    • delete:删除操作

    insert、update、delete

    dbName Alias

    数据库名称。

    test

    Slot Name

    opengauss逻辑复制槽的名称。

    不同任务之间槽名不能重名,支持小写字母和下划线。

    test_solt

    Slot Drop

    任务停止时是否删除Slot。

    Connect With Hudi

    是否对接Hudi。

    WhiteList

    待抓取表的白名单。

    配置需要抓取的表的名单列表,多个表可以用英文逗号分隔,支持通配符。

    testtable

    Data Filter Time

    数据过滤时间。

    -

    Multi Partition

    是否开启Topic的多分区。

    开启之后需要配置“Topic TableMapping”并指定Topic的分区数量, 单表数据将分散在多个分区中。

    说明:
    • 此配置项为高危配置, 开启后无法保证数据的时间顺序。
    • 默认分区数为“5”,如果需修改则需登录FusionInsight Manager,选择“集群 > 服务 > CDL > 配置”,在搜索框中搜索“topics.max.partitions”并修改该值为需要修改的分区数,例如,修改值为“10”,保存配置并重启CDL服务。

    Key Management Tool

    密钥管理工具。当前仅支持“his_kms”密钥管理工具。

    his_kms

    Key Environment Information

    密钥信息。仅配置了“Key Management Tool”密钥管理工具才支持该参数。

    -

    Custom Config

    自定义解码配置。

    -

    Topic Table Mapping

    Topic与表的映射关系,表名格式为:Schema名.表名

    用于指定某个表的数据发送到指定的Topic中,开启多分区功能后需要配置Topic的分区数,分区数必须大于1。数据过滤时间用于过滤数据,当源端数据的时间小于设定时间时,该数据将会被丢弃,当源端数据的时间大于设定时间时,该数据发送到下游。

    如果“Connect With Hudi”选择“是”,则该参数为必填项。

    cdlschema.testtable

    testtable_topic

    2023/03/10 11:33:37

    表8 Sink Hudi作业参数

    参数名称

    描述

    示例

    Link

    已创建的Hudi连接。

    hudilink

    Path

    数据存储路径。

    /cdldata

    Interval

    Spark RDD的执行周期,单位:秒。

    1

    Max Rate Per Partition

    使用Kafka direct stram API时,从每个Kafka分区读取数据的最大速率限制,单位:个/秒, 0表示无限制。

    0

    Parallelism

    写Hudi时的并发数。

    100

    Target Hive Database

    目标Hive的数据库名称。

    default

    Hudi表属性配置方式

    Hudi表属性配置方式,包括:

    • 可视化视图
    • JSON视图

    可视化视图

    Hudi表属性全局配置

    Hudi侧的全局参数。

    -

    Hudi表属性配置

    Hudi表属性配置。

    -

    Hudi表属性配置-Table Name/Source Table Name(MRS 3.3.0及之后版本)

    源端表名。

    -

    Hudi表属性配置-Table Type Opt Key

    Hudi表类型,包括:

    • COPY_ON_WRITE
    • MERGE_ON_READ

    MERGE_ON_READ

    Hudi表属性配置-Hudi TableName Mapping

    Hudi表名称,如果不设置,则默认与源表名相同。

    -

    Hudi表属性配置-Hive TableName Mapping

    Hudi表同步到Hive的表名映射关系,自定义表名。

    -

    Hudi表属性配置-Table Primarykey Mapping

    Hudi表的主键对应关系。

    id

    Hudi表属性配置-Table Hudi Partition Type

    Hudi表和分区字段映射关系,如果Hudi表采用分区表,则需要配置表名和分区字段的对应关系,包括“time”和“customized”。

    time

    Hudi表属性配置-Custom Config

    自定义配置。

    说明:

    MRS 3.3.0及之后版本,从MySQL同步数据到Hudi时,需要指定“hoodie.datasource.write.precombine.field”参数,如果MySQL的timestamp、datetime类型精度只支持秒级,则不建议指定timestamp、datetime类型及_hoodie_event_time字段作为precombine字段。该功能用于当新值预合并字段比Hudi端预合并字段大时,则覆盖Hudi端已有数据;当新值预合并字段比Hudi端预合并字段小时,则丢弃新数据。

    -

    Execution Env

    Hudi App运行时需要的环境变量,当前如果无可用的ENV,则需先参考管理CDL ENV变量进行创建。

    defaultEnv

    表9 Sink Kafka作业参数

    参数名称

    描述

    示例

    Link

    已创建的kafka连接。

    kafkalink

    表10 DWS作业参数

    参数名称

    描述

    示例

    Link

    Connector使用的连接。

    dwslink

    Query Timeout

    连接DWS的超时时间,单位:毫秒。

    180000

    Batch Size

    批次写入DWS的数据量。

    50

    Sink Task Number

    单个表写入DWS时的最大并行作业数。

    -

    DWS Custom Config

    自定义配置。

    -

    表11 ClickHouse作业参数

    参数名称

    描述

    示例

    Link

    Connector使用的连接。

    dwslink

    Query Timeout

    连接ClickHouse的超时时间,单位:毫秒。

    60000

    Batch Size

    批次写入ClickHouse的数据量。

    说明:

    设置单批次写入ClickHouse的数据量时数值尽量大,建议取值范围为:10000~100000。

    100000

  4. 作业参数配置完成后,拖拽图标将作业进行关联,然后单击“保存”,作业配置完成。

  5. 在“作业管理”的作业列表中,找到创建的作业名称,单击操作列的“启动”,等待作业启动。

    观察数据传输是否生效,例如在MySQL数据库中对作业中指定的表进行插入数据操作,查看Hudi导入的文件内容是否正常。

提示

您即将访问非华为云网站,请注意账号财产安全

文档反馈

文档反馈

意见反馈

0/500

标记内容

同时提交标记内容