mrcp对接websocket 更多内容
  • DataX对接OBS

    S服务,本文介绍DataX如何对接OBS。 对接步骤 下载datax源码,以发布版本datax_v202308为例:下载地址。 修改编译datax。 升级hdfsreader和hdfswriter模块依赖的hadoop版本,以升级到2.8.3版本为例。 修改datax\hdfswriter\pom

    来自:帮助中心

    查看更多 →

  • Hive对接OBS

    Hive对接OBS 概述 Hive是一个 数据仓库 工具,可以对存储在分布式存储中的大规模数据进行数据提取、转化和加载,它提供了丰富的SQL查询方式来进行数据分析。 前提条件 已安装Hadoop,具体请参见Hadoop对接OBS。 对接步骤 以Hive 2.3.3为例。 下载apache-hive-2

    来自:帮助中心

    查看更多 →

  • 设备侧对接

    设备侧对接 创建产品 具体步骤: 访问 设备接入服务 ,单击“管理控制台”进入设备接入控制台。选择您的实例,单击实例卡片进入。 在左侧导航栏选择“产品”,单击左侧“创建产品”。 图1 创建产品-SL651 在对应的产品栏单击“详情”进入产品详情页面,单击“基本信息”中“上传模型文件”,导入SL651

    来自:帮助中心

    查看更多 →

  • 应用侧对接

    应用侧对接 属性上报 以下消息转换为IoTDA平台的属性,应用可以通过查询设备影子或者数据转发接收属性上报消息。 上报位置信息 对应的消息ID:0x0200 推送样例: { "resource": "device.property", "event": "report",

    来自:帮助中心

    查看更多 →

  • 对接Grafana插件

    对接Grafana插件 对接Grafana插件(Windows) 对接Grafana插件(Linux)

    来自:帮助中心

    查看更多 →

  • 对接Mongo

    对接Mongo scala样例代码 pyspark样例代码 java样例代码 父主题: 使用Spark作业跨源访问数据源

    来自:帮助中心

    查看更多 →

  • 生态组件对接

    Hive对接外置自建关系型数据库 MRS Hive对接外部LDAP配置说明 使用Kafka Eagle对接MRS Kafka 使用Jupyter Notebook对接MRS Spark

    来自:帮助中心

    查看更多 →

  • 集成对接

    集成对接 区级管理平台与 WeLink 集成对接 前提条件:区级管理平台已按照WeLink接口规范完成接口开发。 修改WeLink地址配置(联邦认证) 图1 区级管理平台与WeLink集成对接 区级管理平台与RomaExchange集成对接 图2 区级管理平台与RomaExchange集成对接

    来自:帮助中心

    查看更多 →

  • 对接配置日志

    对接配置日志 使用前提 对接日志系统,需要在csd.yaml文件中配置能力插件依赖功能声明,具体参考服务包扩展目录 capabilitiesrequirements示例。 对接原理 OSC内置了ops-operator插件,通过webhook的方式拦截标签匹配的工作负载(包括De

    来自:帮助中心

    查看更多 →

  • 对接腾讯云

    对接腾讯云 静态路由模式 父主题: 站点入云VPN企业版

    来自:帮助中心

    查看更多 →

  • 平台云云对接

    平台云云对接 华为云物联网平台支持和中国电信AEP平台对接对接成功后,您可以在华为物联网平台管理您的资源。 平台对接前资源空间需完成设备数据迁移。若未完成,请参考设备发放-策略进行数据迁移。 该功能在北京四、上海一标准版支持,企业版如需要请提交工单联系。 操作步骤 访问设备接入

    来自:帮助中心

    查看更多 →

  • 设备侧对接

    设备侧对接 定义产品 访问设备接入服务,单击“管理控制台”进入设备接入控制台。选择您的实例,单击实例卡片进入。 在左侧导航栏选择“产品”,单击左侧“创建产品”。 图1 创建产品-HJ212 单击“更多-详情”进入产品详情页面,单击“基本信息”中“上传模型文件”,导入hj212_product_model

    来自:帮助中心

    查看更多 →

  • 对接License接口

    对接License接口 前提条件 License接口和Kit接口合计9个接口的生产地址路径保持一致。 License接口:获取License、License续费、License过期、License释放。 Kit接口:租户信息同步接口、租户应用信息同步接口、租户应用授权信息同步接口

    来自:帮助中心

    查看更多 →

  • 对接Redis

    对接Redis scala样例代码 pyspark样例代码 java样例代码 故障处理 父主题: 使用Spark作业跨源访问数据源

    来自:帮助中心

    查看更多 →

  • Spark对接OpenTSDB

    Spark对接OpenTSDB 创建表关联OpenTSDB 插入数据至OpenTSDB表 查询OpenTSDB表 默认配置修改 父主题: 使用Spark(MRS 3.x之前版本)

    来自:帮助中心

    查看更多 →

  • Druid对接OBS

    Druid对接OBS 概述 Druid专为需要快速数据查询与摄入的工作流程而设计,在即时数据可见性、即席查询、运营分析以及高并发等方面表现非常出色。 通过HDFS接口对接OBS,使用OBS提供的OBSA-HDFS工具,无需重新编译druid,将OBS配置为deep storage。

    来自:帮助中心

    查看更多 →

  • Spark对接OBS

    Spark对接OBS 概述 Apache Spark是专为大规模数据处理而设计的快速通用的计算引擎。 前提条件 已安装Hadoop,具体请参见Hadoop对接OBS。 注意事项 为了减少日志输出,在/opt/spark-2.3.3/conf/log4j.properties文件中增加配置:

    来自:帮助中心

    查看更多 →

  • Flink对接OBS

    Flink对接OBS 概述 Flink是一个分布式的数据处理引擎,用于处理有界和无界流式数据。Flink定义了文件系统抽象,OBS服务实现了Flink的文件系统抽象,使得OBS可以作为flink StateBackend和数据读写的载体。 注意事项 flink-obs-fs-hadoop目前仅支持OBS并行文件系统。

    来自:帮助中心

    查看更多 →

  • Hadoop对接OBS

    Hadoop对接OBS 概述 Hadoop系统提供了分布式存储、计算和资源调度引擎,用于大规模数据处理和分析。OBS服务实现了Hadoop的HDFS协议,在大数据场景中可以替代Hadoop系统中的HDFS服务,实现Spark、MapReduce、Hive等大数据生态与OBS服务的对接,为大数据计算提供“ 数据湖 ”存储。

    来自:帮助中心

    查看更多 →

  • 对接阿里云

    对接阿里云 静态路由模式 BGP路由模式 策略模式 父主题: 站点入云VPN企业版

    来自:帮助中心

    查看更多 →

  • API对接问题

    API对接问题 Q:注册消息通知URL,提示“configcallbackurlfailed“? Q:如何获取原图、背景图、全景图? Q:设备组管理如何获取根组织的device_org_id? Q:NVR下的通道是否可以获取到SNID? Q:业务端如何维护设备列表和设备状态?

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了