中软国际数据治理专业服务解决方案实践

中软国际数据治理专业服务解决方案实践

    首行添加数据 更多内容
  • 添加Oracle数据源

    /opt/hadoopclient 执以下命令配置环境变量。 source bigdata_env 如果集群为安全模式,执以下命令进用户认证。普通模式集群无需执用户认证。 kinit HetuEngine管理员用户 根据回显提示输入密码。 执如下命令创建目录“/user/he

    来自:帮助中心

    查看更多 →

  • 添加数据表

    单击新增表字段弹窗的“确定”按钮,保存表字段 单击新增数据表弹窗的“确定”按钮,保存数据表 单击“添加数据”按钮,添加数据 图3 添加数据弹窗 单击“添加”按钮,进数据添加 图4 添加数据弹窗 单击添加数据弹窗的“保存”按钮,保存数据。 单击编辑按钮,进数据编辑。 图5 编辑数据弹窗 单击“删除”按钮,

    来自:帮助中心

    查看更多 →

  • 添加数据端点

    ey和AppSecret(API网关>调用API>应用管理) 绑定节点:勾选为部署IT应用注册的节点。 父主题: 集成ModuleSDK进工业子系统接入

    来自:帮助中心

    查看更多 →

  • 添加目标数据源

    添加目标数据源 功能介绍 添加目标数据源。 调试 您可以在 API Explorer 中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。 URI POST /v2/{project_id}/link/instances/

    来自:帮助中心

    查看更多 →

  • 添加源数据源

    添加数据源 功能介绍 添加数据源。 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。 URI POST /v2/{project_id}/link/instances/{i

    来自:帮助中心

    查看更多 →

  • 添加HBase数据源

    登录集群客户端所在节点,执以下命令,切换到客户端安装目录并认证用户。 cd /opt/client source bigdata_env kinit HetuEngine组件操作用户 (普通模式集群跳过) 执以下命令,登录数据源的catalog。 hetu-cli --catalog 数据源名称

    来自:帮助中心

    查看更多 →

  • 添加Hudi数据源

    --schema 数据库名 例如执以下命令: hetu-cli --catalog hudi --schema default 执以下命令,可正常查看数据库表信息或不报错即表示连接成功。 show tables; Hudi数据类型映射 目前Hudi数据源支持的数据类型为:INT、

    来自:帮助中心

    查看更多 →

  • 添加Hive数据源

    (普通模式集群跳过) 执以下命令,登录数据源的catalog。 hetu-cli --catalog 数据源名称 --schema 数据库名 例如执以下命令: hetu-cli --catalog hive_1 --schema default 执以下命令,可正常查看数据库表信息或不报错即表示连接成功。

    来自:帮助中心

    查看更多 →

  • 创建首条审批单据同步流

    创建条审批单据同步流 在客户账号,进入我的流模板,选择"SAP同步钉钉审批模板-基于SQLQUERY"同步流模板,选择"创建流" 配置定时任务同步周期,默认1分钟,可以修改,配置完下一步 配置主表SQL,以及sql字段和钉钉表单主表字段的映射关系 配置子表SQL,以及sql字段和钉钉子表字段的映射关系

    来自:帮助中心

    查看更多 →

  • 数据源--添加API数据源

    数据源--添加API数据源 操作步骤 登录进入“IoT数据分析”服务控制台。 在左侧导航栏选择“数据源>API数据源”进入页面。 点击“添加数据源”按钮,在弹出的页面中输入数据源名称,点击“确定”按钮,完成API数据源的添加。您可通过第三方APP(例如postman)向这个API数据源的URL发送数据。

    来自:帮助中心

    查看更多 →

  • 数据源--添加DIS数据源

    数据源--添加DIS数据源 前提条件 您已购买华为云DIS服务。 操作步骤 点击IoT数据分析服务控制台左侧导航栏的数据源,进入数据源页面,点击“实时数据源”。 实时点击“添加数据源”,在弹出的页面中输入消息通知服务的连接参数,各参数说明详见表1。 表1 添加实时数据源参数说明 参数名

    来自:帮助中心

    查看更多 →

  • 基于模板创建首条流

    基于模板创建条流 在我的流模板里选择"E-cologyOA的单据同步到ERP_23-9-0"流模板,点击创建流 点击"下一步" 根据描述信息,配置当前单据的值,配置完成,点击"下一步" 点击"创建",创建流 父主题: OA数据同步到ERP流创建并复用

    来自:帮助中心

    查看更多 →

  • 基于模板创建首条流

    基于模板创建条流 首先完成创建审批流程流的创建: 在我的流模板里选择"ERP审批流程同步到Ecology-OA_23-9-0"流模板,点击创建流 点击"下一步" 根据描述信息,配置单据各种信息,配置完成,点击"下一步" 配置查询草稿单的输出字段名,即要从B1查询的单据的字段 配

    来自:帮助中心

    查看更多 →

  • 添加大数据资产

    添加数据资产 如果您的资产是自建大数据类型,请参照此章节将大数据实例添加到DSC服务。 如果您的资产为 DLI 数据库,请参照添加DLI数据库进添加。 前提条件 已完成数据库资产委托授权,参考云资产委托授权/停止授权进操作。 已获取自建ES、HBase以及Hive数据源的版本、

    来自:帮助中心

    查看更多 →

  • 添加RDS数据库(废弃)

    添加RDS数据库(废弃) 功能介绍 添加RDS数据库 该接口是V1版本接口,以后不再维护,待下线。请使用V2版本接口添加RDS数据库。 调用方法 请参见如何调用API。 URI POST /v1/{project_id}/{instance_id}/dbss/audit/databases/rds

    来自:帮助中心

    查看更多 →

  • 添加ClickHouse数据源

    (普通模式集群跳过) 执以下命令,登录数据源的catalog。 hetu-cli --catalog 数据源名称 --schema 数据库名 例如执以下命令: hetu-cli --catalog clickhouse_1 --schema default 执以下命令,可正常查看数据库表信息或不报错即表示连接成功。

    来自:帮助中心

    查看更多 →

  • 添加MySQL数据源

    /opt/hadoopclient 执以下命令配置环境变量。 source bigdata_env 如果集群为安全模式,执以下命令进用户认证。普通模式集群无需执用户认证。 kinit HetuEngine管理员用户 根据回显提示输入密码。 执如下命令创建目录“/user/he

    来自:帮助中心

    查看更多 →

  • 添加运行时配置

    添加时配置 部分技能在运的时候,需要用户配置相关参数。比如一般人脸判断的技能都需要用户上传人脸库。 背景信息 技能开发者设置了运时配置的技能,才能够进相应配置添加和修改。 “运时配置”分为两种,“全局”和“视频”配置。 “全局”的配置是针对设备整体生效的。 “视频”是

    来自:帮助中心

    查看更多 →

  • 添加数据库题

    验证用例及知识点。 自动判题用例:包含用例输入和用例输出。 用例输入:表示向初始化的表结构写入的原始数据,有sql输入和json输入两种。 用例输出:表示运参见答案的sql之后,系统输出哪些数据,以json形式呈现。 输入知识点和习题难度,该项为必填项。 完成习题创建,单击“确定”即可生成习题。

    来自:帮助中心

    查看更多 →

  • 添加数据 V2

    custom_tags 否 Map<String,String> 数据的自定义字符标签,用于进条件过滤。格式为键值对{key:value}。 key: 必须为服务实例custom_tags中已存在的key,可在创建服务实例时进配置,或在更新服务实例时进新增。 value: 类型为字符串,字符长度范围为[1

    来自:帮助中心

    查看更多 →

  • 添加云硬盘的元数据

    添加云硬盘的元数据 功能介绍 添加云硬盘的元数据。 调用方法 请参见如何调用API。 URI POST /v3/{project_id}/volumes/{volume_id}/metadata 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了