中软国际数据治理专业服务解决方案实践

中软国际数据治理专业服务解决方案实践

    首行添加数据 更多内容
  • 添加监控数据

    Long 数据收集时间支持过去1天和未来半小时范围内的数据上报。数据收集时间需要满足: 当前UTC时间减去collect_time小于等于24小时或者collect_time减去当前UTC时间小于等于30分钟。 若数据上报时间早于当天8点,则指标监控页面只显示当天8点后的数据。取值范围:

    来自:帮助中心

    查看更多 →

  • 添加数据

    上传文件大小不能超过1GB。最多不能超过20个文件。 复制数据 将其他项目或本项目的数据,复制到本项目中,并可在本项目中操作该数据。 单击数据中心右上角“复制”。 选择需要复制的项目数据,选择导入数据的路径。 您可以选中多个文件夹进批量复制。 复制数据时可单击图标创建文件夹。 图2 复制数据 单击“确认”,复制其他项目中的数据至本项目。

    来自:帮助中心

    查看更多 →

  • 添加监控数据

    添加监控数据 功能介绍 添加一条或多条自定义指标监控数据,解决系统监控指标不能满足具体业务需求的场景。 监控数据保留时间请参见《 云监控服务 用户指南》的“指标数据保留多长时间”章节。 调试 您可以在 API Explorer 中调试该接口,支持自动认证鉴权。API Explorer可以

    来自:帮助中心

    查看更多 →

  • 添加静态数据

    单击,展开设置数据源页面。 选择数据源类型(可选对象数组、树结构),并输入数据源名称。 图1 创建数据源 单击“新增字段”,添加静态数据源。 图2 添加静态数据源 单击“保存”,完成数据源字段添加。 单击“保存”,完成数据源创建。 父主题: 数据源管理

    来自:帮助中心

    查看更多 →

  • 添加数据

    上传文件大小不能超过1GB。 复制数据 将其他项目的数据,复制到本项目中,并可在本项目中操作该数据。 单击“添加数据”,类型选择“复制”。 选择需要复制的项目数据,选择导入数据的路径。 您可以选中多个文件夹进批量复制。 复制数据时可单击图标创建文件夹。 图2 复制数据 单击“确认”,复制其他项目中的数据至本项目。

    来自:帮助中心

    查看更多 →

  • 添加数据示例

    WriteLine(connectionException.ErrorMessage); } } } } 执示例代码,控制台返回200即表示程序执成功。 200 { "result": "success", "data": { "image_info":

    来自:帮助中心

    查看更多 →

  • 添加数据示例

    添加数据示例 本章节对添加数据AK/SK方式使用SDK进示例说明。 添加数据示例代码只需将AK/SK信息替换为实际AK/SK,代码中可以使用AddDataParam类中的ImageUrl、Keywords、CustomNumTags、CustomTags、Desc、ItemId

    来自:帮助中心

    查看更多 →

  • 添加数据转储

    如果没有合适的Kafka实例或Topic,请参考购买Kafka实例和创建Topic。 配置完成后,单击“立即添加”。 转储后的数据请到分布式消息服务Kafka中进查询,详细操作请参考查询消息。 父主题: 数据转储

    来自:帮助中心

    查看更多 →

  • 添加数据示例

    System.out.println(e.getErrorMsg()); } } } 执示例代码,控制台返回添加数据结果输出到控制台即表示程序执成功。 class RunAddDataResponse { result: success data:

    来自:帮助中心

    查看更多 →

  • 添加数据示例

    request_id) print(e.error_code) print(e.error_msg) 执示例代码,控制台输出添加数据结果即表示程序执成功。 { "result": "success", "data": { "image_info":

    来自:帮助中心

    查看更多 →

  • 如何添加Hbase数据库并进行审计?

    如何添加Hbase数据库并进审计? Hbase数据库包含一个主Master节点,一个备Master节点和多个RegionServer节点。 添加Hbase数据库审计时,需将Master节点和RegionServer节点看做独立的数据库进添加。 约束条件 仅支持hbase(pr

    来自:帮助中心

    查看更多 →

  • CarbonData首查优化工具

    CarbonData查优化工具 工具介绍 CarbonData 的首次查询较慢,对于实时性要求较高的节点可能会造成一定的时延。 本工具主要提供以下功能: 对查询时延要求较高的表进首次查询预热。 工具使用 下载安装客户端,例如安装目录为“/opt/client”。进入 目录“/

    来自:帮助中心

    查看更多 →

  • 添加数据源

    添加数据源 登录MAS控制台,进入“数据管理>数据源”页面,选择前提条件中已创建好的命名空间,单击右上角的“添加数据源”。 在“添加数据源”页面,填写配置信息,然后单击“提交”。 表1 数据源配置参数 参数 配置说明 所属分区 选择数据源所属分区,配置为命名空间下的主多活分区。 数据源类型

    来自:帮助中心

    查看更多 →

  • 添加HetuEngine数据源

    添加HetuEngine数据源 使用HetuEngine跨源跨域访问数据源 创建HetuEngine计算实例 添加Hive数据添加Hudi数据添加ClickHouse数据添加GAUSSDB数据添加HBase数据添加跨集群HetuEngine数据添加IoTDB数据源

    来自:帮助中心

    查看更多 →

  • 添加GAUSSDB数据源

    是否使用并数据读取功能 启用并数据读取功能将基于节点分布和“max-splits”参数值来确定实际的split数。 并读取将与数据源创建多个连接,被依赖的数据源应当具备支持负载的能力。 false split-type 并数据读取类型 NODE:基于 GaussDB 数据源DN节点划分并行度

    来自:帮助中心

    查看更多 →

  • 添加源数据源

    添加数据源 功能介绍 添加数据源。 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。 URI POST /v2/{project_id}/link/instances/{i

    来自:帮助中心

    查看更多 →

  • 添加目标数据源

    添加目标数据源 功能介绍 添加目标数据源。 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。 URI POST /v2/{project_id}/link/instances/

    来自:帮助中心

    查看更多 →

  • 添加数据表

    单击新增表字段弹窗的“确定”按钮,保存表字段 单击新增数据表弹窗的“确定”按钮,保存数据表 单击“添加数据”按钮,添加数据 图3 添加数据弹窗 单击“添加”按钮,进数据添加 图4 添加数据弹窗 单击添加数据弹窗的“保存”按钮,保存数据。 单击编辑按钮,进数据编辑。 图5 编辑数据弹窗 单击“删除”按钮,

    来自:帮助中心

    查看更多 →

  • 添加Hudi数据源

    --schema 数据库名 例如执以下命令: hetu-cli --catalog hudi_1 --schema default 执以下命令,可正常查看数据库表信息或不报错即表示连接成功。 show tables; 数据类型映射 目前Hudi数据源支持的数据类型为:INT、B

    来自:帮助中心

    查看更多 →

  • 添加Hive数据源

    (普通模式集群跳过) 执以下命令,登录数据源的catalog。 hetu-cli --catalog 数据源名称 --schema 数据库名 例如执以下命令: hetu-cli --catalog hive_1 --schema default 执以下命令,可正常查看数据库表信息或不报错即表示连接成功。

    来自:帮助中心

    查看更多 →

  • 添加HBase数据源

    登录集群客户端所在节点,执以下命令,切换到客户端安装目录并认证用户。 cd /opt/client source bigdata_env kinit HetuEngine组件操作用户 (普通模式集群跳过) 执以下命令,登录数据源的catalog。 hetu-cli --catalog 数据源名称

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了