分布式消息服务 DMS分布式消息服务 DMS

计算
弹性云服务器 ECS
裸金属服务器 BMS
云手机 CPH
专属主机 DeH
弹性伸缩 AS
镜像服务 IMS
函数工作流 FunctionGraph
云耀云服务器 HECS
VR云渲游平台 CVR
特惠算力专区
存储
对象存储服务 OBS
云硬盘 EVS
云备份 CBR
弹性文件服务 SFS
存储容灾服务 SDRS
云硬盘备份 VBS
云服务器备份 CSBS
数据快递服务 DES
专属企业存储服务
云存储网关 CSG
专属分布式存储服务 DSS
CDN与智能边缘
内容分发网络 CDN
智能边缘云 IEC
智能边缘平台 IEF
人工智能
AI开发平台ModelArts
华为HiLens
图引擎服务 GES
图像识别 Image
文字识别 OCR
自然语言处理 NLP
内容审核 Moderation
图像搜索 ImageSearch
医疗智能体 EIHealth
园区智能体 CampusGo
企业级AI应用开发专业套件 ModelArts Pro
人脸识别服务 FRS
对话机器人服务 CBS
视频分析服务 VAS
语音交互服务 SIS
知识图谱 KG
人证核身服务 IVS
IoT物联网
设备接入 IoTDA
设备管理 IoTDM(联通用户专用)
全球SIM联接 GSL
IoT开发者服务
IoT数据分析
车联网服务 IoV
路网数字化服务 DRIS
IoT边缘 IoTEdge
设备发放 IoTDP
开发与运维
软件开发平台 DevCloud
项目管理 ProjectMan
代码托管 CodeHub
流水线 CloudPipeline
代码检查 CodeCheck
编译构建 CloudBuild
部署 CloudDeploy
云测 CloudTest
发布 CloudRelease
移动应用测试 MobileAPPTest
CloudIDE
Classroom
开源镜像站 Mirrors
应用魔方 AppCube
云性能测试服务 CPTS
应用管理与运维平台 ServiceStage
视频
实时音视频 SparkRTC
视频直播 Live
视频点播 VOD
媒体处理 MPC
视频接入服务 VIS
管理与监管
统一身份认证服务 IAM
消息通知服务 SMN
云监控服务 CES
应用运维管理 AOM
应用性能管理 APM
云日志服务 LTS
云审计服务 CTS
标签管理服务 TMS
资源管理服务 RMS
应用身份管理服务 OneAccess
区块链
区块链服务 BCS
可信跨链数据链接服务 TCDAS
智能协作
IdeaHub
开发者工具
SDK开发指南
API签名指南
DevStar
HCloud CLI
Terraform
Ansible
云生态
云市场
合作伙伴中心
华为云培训中心
其他
管理控制台
消息中心
产品价格详情
系统权限
我的凭证
客户关联华为云合作伙伴须知
公共问题
宽限期保留期
奖励推广计划
活动
容器
云容器引擎 CCE
云容器实例 CCI
容器镜像服务 SWR
应用编排服务 AOS
多云容器平台 MCP
基因容器 GCS
容器洞察引擎 CIE
云原生服务中心 OSC
容器批量计算 BCE
容器交付流水线 ContainerOps
应用服务网格 ASM
网络
虚拟私有云 VPC
弹性公网IP EIP
弹性负载均衡 ELB
NAT网关 NAT
云专线 DC
虚拟专用网络 VPN
云连接 CC
VPC终端节点 VPCEP
数据库
云数据库 RDS
数据复制服务 DRS
文档数据库服务 DDS
分布式数据库中间件 DDM
云数据库 GaussDB (for openGauss)
云数据库 GaussDB(for MySQL)
云数据库 GaussDB NoSQL
数据管理服务 DAS
数据库和应用迁移 UGO
大数据
MapReduce服务 MRS
数据湖探索 DLI
表格存储服务 CloudTable
可信智能计算服务 TICS
推荐系统 RES
云搜索服务 CSS
数据可视化 DLV
数据湖治理中心 DGC
数据接入服务 DIS
数据仓库服务 GaussDB(DWS)
应用中间件
微服务引擎 CSE
分布式消息服务Kafka版
分布式消息服务RabbitMQ版
API网关 APIG
分布式缓存服务 DCS
分布式消息服务RocketMQ版
企业应用
域名注册服务 Domains
云解析服务 DNS
云速建站 CloudSite
网站备案
华为云WeLink
会议
隐私保护通话 PrivateNumber
语音通话 VoiceCall
消息&短信 MSGSMS
云管理网络
SD-WAN 云服务
边缘数据中心管理 EDCM
云桌面 Workspace
应用与数据集成平台 ROMA Connect
ROMA资产中心 ROMAExchange
API全生命周期管理 ROMA API
安全与合规
安全技术与应用
DDoS防护 ADS
Web应用防火墙 WAF
云防火墙 CFW
应用信任中心 ATC
企业主机安全 HSS
容器安全服务 CGS
云堡垒机 CBH
数据库安全服务 DBSS
数据加密服务 DEW
数据安全中心 DSC
云证书管理服务 CCM
SSL证书管理 SCM
漏洞扫描服务 VSS
态势感知 SA
威胁检测服务 MTD
管理检测与响应 MDR
迁移
主机迁移服务 SMS
对象存储迁移服务 OMS
云数据迁移 CDM
专属云
专属计算集群 DCC
解决方案
高性能计算 HPC
SAP
游戏云
混合云灾备
价格
成本优化最佳实践
专属云商业逻辑
用户服务
帐号中心
费用中心
成本中心
资源中心
企业管理
工单管理
客户运营能力
国际站常见问题
支持计划
专业服务
合作伙伴支持计划
更新时间:2021/06/16 GMT+08:00
分享

C SDK

本节以Linux系统为例介绍C客户端如何连接DMS服务的Kafka队列,获取相关配置信息请参考准备环境章节。

DMS服务兼容Kafka原生API,相关调用方法请参考Kafka官网说明

客户端环境搭建

  1. 下载SDK包

    解压后获取kafka-dms-c.tar.gz文件。

  2. 安装gcc工具。

    执行如下命令检查是否已安装gcc工具。

    gcc -v

    如果没有gcc,需要安装gcc。
    • ubuntu操作系统:
      • 执行apt-cache search gcc命令检查软件仓库中是否有gcc。如没有,请自行配置软件仓库的地址。
      • 执行apt-get install gcc命令安装gcc。
    • suse操作系统:
      • 执行zypper search gcc命令检查软件仓库中是否有gcc。如没有,请自行配置软件仓库的地址。
      • 执行zypper install gcc命令安装gcc。
    • centos/redhat操作系统:
      • yum search gcc
      • yum install gcc

  3. 解压缩kafka-dms-c.tar.gz。

    以下假设解压目录为{DMSPATH}。

  4. 执行如下命令,拷贝kafka依赖到本地include目录下。

    cp {DMSPATH}/kafka-dms-c/librdkafka/include/librdkafka /usr/include/ -R

  5. 执行如下命令,拷贝kafka依赖到本地的lib库中。

    cp {DMSPPATH}/kafka-dms-c/librdkafka/lib/* /usr/lib/ -R

  6. 执行如下命令编译示例代码。

    cd {DMSPATH}/kafka-dms-c/example

    gcc my_consumer.c -o my_consumer -lrdkafka -lz -lpthread -lrt

    gcc my_producer.c -o my_producer -lrdkafka -lz -lpthread -lrt

    说明:如果提示“cannot find -lz”,执行“apt-get install zlib1g-dev”即可。

运行示例

  1. 执行如下命令进行生产消息。

    ./my_producer <broker> <topic> <project_id> <access_key> <secrect_key>

    表1 参数说明

    参数

    说明

    获取方式

    broker

    配置为Kafka的endpoint地址。

    请参考准备环境

    topic

    配置为Kafka Topic的id。

    project_id

    项目ID。

    access_key

    租户AK。

    secrect_key

    租户SK。

    执行完命令后输入消息内容,按回车键发送消息到Kafka队列中,输入的每一行内容都将作为一条消息发送到Kafka队列。

    如需停止生产使用Ctrl+C命令退出。

  2. 执行如下命令消费消息。

    ./my_consumer <broker> <topic> <group> <project_id> <access_key> <secrect_key>

    表2 参数说明

    参数

    说明

    获取方式

    broker

    配置为Kafka的endpoint地址。

    请参考准备环境

    topic

    配置为Kafka Topic的id。

    group

    配置为Kafka队列的消费组id。

    project_id

    项目ID。

    access_key

    租户AK。

    secrect_key

    租户SK。

    执行完命令后自动从队列中最早的消息开始消费,如需停止消费使用Ctrl+C命令退出。

示例代码

生产消息

        if (rd_kafka_produce(
                    /* Topic object */
                     rkt,
                    /*使用内置的分区来选择分区*/
                     RD_KAFKA_PARTITION_UA,
                    /*生成payload的副本*/
                     RD_KAFKA_MSG_F_COPY,
                    /*消息体和长度*/
                     buf, len,
                    /*可选键及其长度*/
                     NULL, 0,
                     NULL) == -1){
             fprintf(stderr, 
                 "%% Failed to produce to topic %s: %s\n", 
                 rd_kafka_topic_name(rkt),
                 rd_kafka_err2str(rd_kafka_last_error()));
 
             if (rd_kafka_last_error() == RD_KAFKA_RESP_ERR__QUEUE_FULL){
                /*如果内部队列满,等待消息传输完成并retry,
                内部队列表示要发送的消息和已发送或失败的消息,
                内部队列受限于queue.buffering.max.messages配置项*/
                 rd_kafka_poll(rk, 1000);
                 goto retry;
             }  
         }else{
             fprintf(stderr, "%% Enqueued message (%zd bytes) for topic %s\n", 
                 len, rd_kafka_topic_name(rkt));

消费消息

    if(!initKafka(brokers, group, topic, project_id, access_key, secrect_key)){
        fprintf(stderr, "kafka server initialize error\n");
    }else{
        while(run){
            rd_kafka_message_t *rkmessage;
            /*-轮询消费者的消息或事件,最多阻塞timeout_ms
             -应用程序应该定期调用consumer_poll(),即使没有预期的消息,注册过rebalance_cb,该操作尤为重要,
             因为它需要被正确地调用和处理以同步内部消费者状态 */
            rkmessage = rd_kafka_consumer_poll(rk, 1000);
            if(rkmessage){
                msg_consume(rkmessage, NULL);
                /*释放rkmessage的资源,并把所有权还给rdkafka*/
                rd_kafka_message_destroy(rkmessage);
            }
        }
    }
分享:

    相关文档

    相关产品