企业通用专区

华为云联合生态伙伴,共同打造丰富多彩的精品应用。软件、协同办公、财税费控、人力资源、营销获客、电商零售、技术支撑、全应用场景商品满足企业多样化业务需求。

 

    人事系统对接ad 更多内容
  • Hadoop对接OBS

    Hadoop对接OBS 概述 Hadoop系统提供了分布式存储、计算和资源调度引擎,用于大规模数据处理和分析。OBS服务实现了Hadoop的HDFS协议,在大数据场景中可以替代Hadoop系统中的HDFS服务,实现Spark、MapReduce、Hive等大数据生态与OBS服务的对接,为大数据计算提供“ 数据湖 ”存储。

    来自:帮助中心

    查看更多 →

  • Spark对接OBS

    Spark对接OBS 概述 Apache Spark是专为大规模数据处理而设计的快速通用的计算引擎。 前提条件 已安装Hadoop,具体请参见Hadoop对接OBS。 注意事项 为了减少日志输出,在/opt/spark-2.3.3/conf/log4j.properties文件中增加配置:

    来自:帮助中心

    查看更多 →

  • Druid对接OBS

    Druid对接OBS 概述 Druid专为需要快速数据查询与摄入的工作流程而设计,在即时数据可见性、即席查询、运营分析以及高并发等方面表现非常出色。 通过HDFS接口对接OBS,使用OBS提供的OBSA-HDFS工具,无需重新编译druid,将OBS配置为deep storage。

    来自:帮助中心

    查看更多 →

  • Flink对接OBS

    Flink对接OBS 概述 Flink是一个分布式的数据处理引擎,用于处理有界和无界流式数据。Flink定义了文件系统抽象,OBS服务实现了Flink的文件系统抽象,使得OBS可以作为flink StateBackend和数据读写的载体。 注意事项 flink-obs-fs-hadoop目前仅支持OBS并行文件系统。

    来自:帮助中心

    查看更多 →

  • 对接阿里云

    对接阿里云 静态路由模式 BGP路由模式 策略模式 父主题: 站点入云VPN企业版

    来自:帮助中心

    查看更多 →

  • 设备侧对接

    设备侧对接 创建产品 具体步骤如下: 导航栏选择“产品”-> 创建产品,协议类型选择Other,数据格式选择JSON。 图1 创建产品-JT808 进入产品详情,单击上传模型文件,导入JT808.zip,导入后如下图所示。 图2 模型定义-JT808 在IoTDA平台注册设备 在左侧导航栏选择“

    来自:帮助中心

    查看更多 →

  • HOUP对接配置

    HOUP对接配置 HOUP对接配置是指通过NetEco完成和HOUP系统对接并获取升级版本信息。 前提条件 已具备“软件管理”的操作权限。 已从HOUP网页获取AK、SK。 背景信息 访问密钥包含访问密钥ID(Access Key ID,简称AK)和秘密访问密钥(Secret Access

    来自:帮助中心

    查看更多 →

  • 使用API对接

    使用API对接 API使用指导(联通用户专用) 使用Postman调测(联通用户专用) 使用Java API Demo调测(联通用户专用) 父主题: 应用侧开发

    来自:帮助中心

    查看更多 →

  • 查看对接参数

    查看对接参数 前提条件 已联系运营人员获取了对接参数。 操作步骤 以租户管理员角色登录AICC,选择“配置中心 > 系统管理 > 租户信息”,进入租间基本信息页签。 选择“对接参数”项,查看API Fabric标识。 (可选)单击“下载SK”,可下载SK至本地。单击“重置SK”,输入当前用户密码后,可重置SK。

    来自:帮助中心

    查看更多 →

  • Hive对接OBS

    Hive对接OBS 概述 Hive是一个 数据仓库 工具,可以对存储在分布式存储中的大规模数据进行数据提取、转化和加载,它提供了丰富的SQL查询方式来进行数据分析。 前提条件 已安装Hadoop,具体请参见Hadoop对接OBS。 对接步骤 以Hive 2.3.3为例。 下载apache-hive-2

    来自:帮助中心

    查看更多 →

  • DataX对接OBS

    DataX对接OBS 概述 DataX是一个数据同步框架,实现了包括MySQL、SQL Server、Oracle、PostgreSQL、HDFS、Hive、HBase、OTS、ODPS等各种异构数据源之间高效的数据同步功能。OBS在大数据场景中可以替代Hadoop系统中的HDF

    来自:帮助中心

    查看更多 →

  • 生态组件对接

    Hive对接外置自建关系型数据库 MRS Hive对接外部LDAP配置说明 使用Kafka Eagle对接MRS Kafka 使用Jupyter Notebook对接MRS Spark

    来自:帮助中心

    查看更多 →

  • 查询对接配置

    1~64个字符。 - 对接系统类型,取值范围:CAMPUS_INSIGHT(代表NCE-CampusInsight),POL(代表NCE-FAN)。 "POL" serverDomain string 1~255个字符。 - 该字段可能包含敏感信息和个人数据,请妥善做好保护。 对接系统 域名 。 该字段对应UI页面上是:UI【域名】

    来自:帮助中心

    查看更多 →

  • 对接Mongo

    对接Mongo scala样例代码 pyspark样例代码 java样例代码 父主题: 使用Spark作业跨源访问数据源

    来自:帮助中心

    查看更多 →

  • 设备侧对接

    设备侧对接 创建产品 具体步骤: 访问 设备接入服务 ,单击“管理控制台”进入设备接入控制台。选择您的实例,单击实例卡片进入。 在左侧导航栏选择“产品”,单击左侧“创建产品”。 图1 创建产品-SL651 在对应的产品栏单击“详情”进入产品详情页面,单击“基本信息”中“上传模型文件”,导入SL651

    来自:帮助中心

    查看更多 →

  • 应用侧对接

    应用侧对接 属性上报 以下消息转换为IoTDA平台的属性,应用可以通过查询设备影子或者数据转发接收属性上报消息。 上报位置信息 对应的消息ID:0x0200 推送样例: { "resource": "device.property", "event": "report",

    来自:帮助中心

    查看更多 →

  • 应用场景

    应用场景 人事管理 人力资源业务没有标准的准则规范,且不同行业、不同规模、不同发展阶段的企业 人力资源管理 重点并不一致,很难形成统一的业务标准并找到完全适配的标准化HR系统产品。传统的人力资源管理系统的功能设计,无法快速适配到实际的现代化企业的人事管理实际场景中,并且开发流程耗时长

    来自:帮助中心

    查看更多 →

  • 集成对接

    集成对接 区级管理平台与 WeLink 集成对接 前提条件:区级管理平台已按照WeLink接口规范完成接口开发。 修改WeLink地址配置(联邦认证) 图1 区级管理平台与WeLink集成对接 区级管理平台与RomaExchange集成对接 图2 区级管理平台与RomaExchange集成对接

    来自:帮助中心

    查看更多 →

  • 对接配置日志

    对接配置日志 使用前提 对接日志系统,需要在csd.yaml文件中配置能力插件依赖功能声明,具体参考服务包扩展目录 capabilitiesrequirements示例。 对接原理 OSC内置了ops-operator插件,通过webhook的方式拦截标签匹配的工作负载(包括De

    来自:帮助中心

    查看更多 →

  • 对接License接口

    对接License接口 前提条件 License接口和Kit接口合计9个接口的生产地址路径保持一致。 License接口:获取License、License续费、License过期、License释放。 Kit接口:租户信息同步接口、租户应用信息同步接口、租户应用授权信息同步接口

    来自:帮助中心

    查看更多 →

  • Spark对接OpenTSDB

    Spark对接OpenTSDB 创建表关联OpenTSDB 插入数据至OpenTSDB表 查询OpenTSDB表 默认配置修改 父主题: 使用Spark(MRS 3.x之前版本)

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了