计算
弹性云服务器 ECS
Flexus云服务
裸金属服务器 BMS
弹性伸缩 AS
镜像服务 IMS
专属主机 DeH
函数工作流 FunctionGraph
云手机服务器 CPH
Huawei Cloud EulerOS
网络
虚拟私有云 VPC
弹性公网IP EIP
虚拟专用网络 VPN
弹性负载均衡 ELB
NAT网关 NAT
云专线 DC
VPC终端节点 VPCEP
云连接 CC
企业路由器 ER
企业交换机 ESW
全球加速 GA
安全与合规
安全技术与应用
Web应用防火墙 WAF
企业主机安全 HSS
云防火墙 CFW
安全云脑 SecMaster
DDoS防护 AAD
数据加密服务 DEW
数据库安全服务 DBSS
云堡垒机 CBH
数据安全中心 DSC
云证书管理服务 CCM
边缘安全 EdgeSec
威胁检测服务 MTD
CDN与智能边缘
内容分发网络 CDN
CloudPond云服务
智能边缘云 IEC
迁移
主机迁移服务 SMS
对象存储迁移服务 OMS
云数据迁移 CDM
迁移中心 MGC
大数据
MapReduce服务 MRS
数据湖探索 DLI
表格存储服务 CloudTable
云搜索服务 CSS
数据接入服务 DIS
数据仓库服务 GaussDB(DWS)
数据治理中心 DataArts Studio
数据可视化 DLV
数据湖工厂 DLF
湖仓构建 LakeFormation
企业应用
云桌面 Workspace
应用与数据集成平台 ROMA Connect
云解析服务 DNS
专属云
专属计算集群 DCC
IoT物联网
IoT物联网
设备接入 IoTDA
智能边缘平台 IEF
用户服务
账号中心
费用中心
成本中心
资源中心
企业管理
工单管理
国际站常见问题
ICP备案
我的凭证
支持计划
客户运营能力
合作伙伴支持计划
专业服务
区块链
区块链服务 BCS
Web3节点引擎服务 NES
解决方案
SAP
高性能计算 HPC
视频
视频直播 Live
视频点播 VOD
媒体处理 MPC
实时音视频 SparkRTC
数字内容生产线 MetaStudio
存储
对象存储服务 OBS
云硬盘 EVS
云备份 CBR
存储容灾服务 SDRS
高性能弹性文件服务 SFS Turbo
弹性文件服务 SFS
云硬盘备份 VBS
云服务器备份 CSBS
数据快递服务 DES
专属分布式存储服务 DSS
容器
云容器引擎 CCE
容器镜像服务 SWR
应用服务网格 ASM
华为云UCS
云容器实例 CCI
管理与监管
云监控服务 CES
统一身份认证服务 IAM
资源编排服务 RFS
云审计服务 CTS
标签管理服务 TMS
云日志服务 LTS
配置审计 Config
资源访问管理 RAM
消息通知服务 SMN
应用运维管理 AOM
应用性能管理 APM
组织 Organizations
优化顾问 OA
IAM 身份中心
云运维中心 COC
资源治理中心 RGC
应用身份管理服务 OneAccess
数据库
云数据库 RDS
文档数据库服务 DDS
数据管理服务 DAS
数据复制服务 DRS
云数据库 GeminiDB
云数据库 GaussDB
分布式数据库中间件 DDM
数据库和应用迁移 UGO
云数据库 TaurusDB
人工智能
人脸识别服务 FRS
图引擎服务 GES
图像识别 Image
内容审核 Moderation
文字识别 OCR
AI开发平台ModelArts
图像搜索 ImageSearch
对话机器人服务 CBS
华为HiLens
视频智能分析服务 VIAS
语音交互服务 SIS
应用中间件
分布式缓存服务 DCS
API网关 APIG
微服务引擎 CSE
分布式消息服务Kafka版
分布式消息服务RabbitMQ版
分布式消息服务RocketMQ版
多活高可用服务 MAS
事件网格 EG
企业协同
华为云会议 Meeting
云通信
消息&短信 MSGSMS
云生态
合作伙伴中心
云商店
开发者工具
SDK开发指南
API签名指南
Terraform
华为云命令行工具服务 KooCLI
其他
产品价格详情
系统权限
管理控制台
客户关联华为云合作伙伴须知
消息中心
公共问题
开发与运维
应用管理与运维平台 ServiceStage
软件开发生产线 CodeArts
需求管理 CodeArts Req
部署 CodeArts Deploy
性能测试 CodeArts PerfTest
编译构建 CodeArts Build
流水线 CodeArts Pipeline
制品仓库 CodeArts Artifact
测试计划 CodeArts TestPlan
代码检查 CodeArts Check
代码托管 CodeArts Repo
云应用引擎 CAE
开天aPaaS
云消息服务 KooMessage
云手机服务 KooPhone
云空间服务 KooDrive
本文导读

使用ClickHouse数据迁移工具

更新时间:2022-12-14 GMT+08:00

ClickHouse数据迁移工具可以将某几个ClickHouseServer实例节点上的一个或多个MergeTree引擎分区表的部分分区迁移至其他ClickHouseServer节点上相同的表中。在扩容场景中,可以使用该工具将原节点上的部分数据迁移至新增节点上,从而达到扩容后的数据均衡。

前提条件

  • ClickHouse服务运行正常,Zookeeper服务运行正常,迁入、迁出节点的ClickHouseServer实例状态正常。
  • 请确保迁入节点已有待迁移数据表,且确保该表是MergeTree系列引擎的分区表。
  • 创建迁移任务前请确保所有对待迁移数据表的写入任务已停止,且任务启动后,只允许对待迁移数据表进行查询操作,禁止对该表进行写入、删除等操作,否则可能会造成迁移前后数据不一致。
  • 如果开启自动均衡,则只会迁移ReplicatedMergeTree系列引擎的分区表,并且该分区表需要有对应的分布式表存在。
  • 迁入节点的ClickHouse数据目录有足够的空间。

操作步骤

  1. 登录Manager,选择“集群 > 服务 > ClickHouse > 数据迁移”,进入数据迁移界面,单击“创建迁移任务”。

    说明:
    • 创建的迁移任务当前有数量限制,默认最多20个迁移任务,该限制可以在Manager上的ClickHouse配置界面通过修改max_migration_task_number配置项进行修改。一个迁移任务会占用ZooKeeper上一定数量的znode节点,不建议将可创建的迁移任务数量上限设置过大。
    • 当已有的迁移任务数量超过可创建迁移任务的最大数量上限时,则不能创建新的迁移任务,系统会自动删除创建时间最早且执行成功的历史迁移任务。若不存在执行成功的历史任务,可以根据实际情况执行10,手动删除历史迁移任务。

  1. 在创建迁移任务界面,填写迁移任务的相关参数,具体参考如下表1。填写完成后单击“下一步”。如果未开启“自动均衡”,则执行3。如果开启“自动均衡”,则执行5

    表1 迁移任务参数说明

    参数名

    参数取值说明

    任务名称

    填写具体的任务名称。可由字母、数字及下划线组成,长度为1~50位,且不能与已有的迁移任务相同。

    自动均衡

    选择是否开启自动均衡。

    • 开启:系统自动选择迁入迁出节点,使得集群内所有对应分布式表的ReplicatedMergeTree系列引擎的分区表在各个节点上数据分布达到均衡状态。
    • 关闭:需要手动选择迁入迁出节点。

    任务类型

    • 定时任务:选择定时任务时,可以设置“开始时间”参数,设定任务在当前时间以后的某个时间点执行。
    • 即时任务:任务启动后立即开始执行。

    开始时间

    在“任务类型”参数选择“定时任务”时填写,有效值为当前时间以后的某个时间(最长为90天以后)。

    带宽上限

    每个ClickHouseServer节点的带宽上限,取值范围1-10000MB/s。自动均衡场景请尽可能提高带宽,默认不流控。

    迁移量

    每张迁移表所迁移数据量占该表总数据量的百分比。取值范围为0-100%,如果该值为空,则默认为50%。在“自动均衡”关闭时该参数有效。

  2. 在“选择数据表与迁出节点”界面的左侧列表中勾选待迁移的数据表名称,单击“确认”。在右侧列表中勾选所选数据表的迁出节点,单击“下一步”。

    说明:

    勾选某个节点后会自动勾选与之互为副本的其余节点做为迁出节点。

  3. 在“选择迁入节点”界面,勾选迁入节点的主机名称,单击“下一步”。

    说明:

    迁入节点与迁出节点不能相同,已勾选的迁出节点,将不在该界面显示。

  4. 确认任务信息,确认无误后可以单击“提交”提交任务。

    数据迁移工具将根据待迁移数据表的大小和“创建迁移任务”界面设置的“迁移量”大小自动计算需要迁移的分区。

  5. 提交迁移任务成功后,单击操作列的“启动”。如果任务类型是即时任务则开始执行任务,如果是定时任务则开始倒计时。
  6. 迁移任务执行过程中,可单击“取消”取消正在执行的迁移任务。若取消任务,则不会回退迁入节点上已迁移的数据。

    注意:

    自动均衡任务取消后不会立即停止,任务将在当前正在迁移的表迁移完成后停止。非自动均衡任务取消后会立即停止,停止后可能会出现正在迁移的分区已迁移至迁入节点,但迁出节点上该分区还未删除的情况,此时会有重复数据,请手工确认迁出节点上是否存在残留的已迁移分区,若存在残留的已迁移分区,请确认该分区在迁入节点上的总数据量与在迁出节点上的总数据量一致,然后删除迁出节点上的该分区。

  7. 单击“更多 > 详情”可以查看迁移任务的详细信息。
  8. 迁移完成后,可单击“更多 > 结果”查看迁移结果。

    非自动均衡任务可以查看每张迁移表被迁移的分区,以及该分区的迁移结果。若该分区的迁移结果为未完成,则说明该分区已拷贝至迁入节点,但迁入节点上该分区的数据量与迁出节点上该分区的数据量不一致,所以未将迁出节点上该分区删除,此时请确认迁入节点与迁出节点该分区的数据量是否一致,手工确认处理后再将迁出节点上分区数据删除。

  9. 迁移完成后,可单击“更多 > 删除”清理ZooKeeper以及迁出节点上该迁移任务相关的目录。

我们使用cookie来确保您的高速浏览体验。继续浏览本站,即表示您同意我们使用cookie。 详情

文档反馈

文档反馈

意见反馈

0/500

标记内容

同时提交标记内容