中软国际数据治理专业服务解决方案实践

中软国际数据治理专业服务解决方案实践

    dt大数据 更多内容
  • INSERT INTO

    into h_p0 partition(dt = '2021-01-02') select 1, 'a1'; -- insert dynamic partition insert into h_p0 select 1, 'a1', dt; -- insert dynamic partition

    来自:帮助中心

    查看更多 →

  • 查看大单续订任务

    单击“订单号”,可以查看订单详情,包含订单信息和资源信息。 单击“操作”列的“处理”,可以处理单续订任务,具体操作请参见处理单续订任务。 单击“任务ID”,进入“营销任务-单续订任务/详情”页面,单击“处理”按钮,同样可以处理单续订任务。 其他操作 根据需要,选择不同的搜索条件,输入相应内容,查看特定的订单任务。

    来自:帮助中心

    查看更多 →

  • 全量数据同步

    全量数据同步 针对数据增长缓慢、非核心业务相关、无时间戳、无增删改标识、数据量低于十万条的明细表数据,以及码表、维度表等数据,采用全量同步的方式接入数管平台,并存放在贴源层的全量表内。数据初始化全量同步是指第一次从业务源库中采用全量同步的方式获取一次数据。 确定数据源 通过调研获

    来自:帮助中心

    查看更多 →

  • 查看大单续订任务

    签查看其名下云经销商的单续订任务。 单击“任务ID”,查看单续订任务的详情信息,包含任务信息、订单信息、任务处理及处理记录。 单击“订单号”,可以查看订单详情,包含订单信息和资源信息。 单击“操作”列的“处理”,可以处理单续订任务,具体操作请参见处理单续订任务。 单击“任

    来自:帮助中心

    查看更多 →

  • 通过界面升级大版本

    11版本和增强版,不支持版本升级。 由于操作系统限制,部分实例暂不支持进行版本升级,具体可升级版本查看界面可升级列表。 灾备实例不支持版本升级。 版本升级前,需要先进行升级检查,如果在有效期内没有检查成功的报告,则不允许进行版本升级。 升级插件限制说明 在版本升级检查成功后

    来自:帮助中心

    查看更多 →

  • 决策树回归特征重要性

    采用决策树回归算法计算数据集特征的特征重要性。 输入 参数 子参数 参数说明 inputs dataframe 参数必选,表示输入的数据集;如果没有pipeline_model和decision_tree_regressor_model参数,表示直接根据数据集训练决策树回归算法得到特征重要性

    来自:帮助中心

    查看更多 →

  • 恢复多版本备份数据

    恢复多版本备份数据 功能描述 在 DLI 数据多版本功能开启后,您可以通过RESTORE TABLE命令恢复表或分区数据到指定版本。开启和关闭多版本语法请参考开启或关闭数据多版本。 DLI数据多版本功能当前仅支持通过Hive语法创建的OBS表,具体建表SQL语法可以参考使用Hive语法创建OBS表。

    来自:帮助中心

    查看更多 →

  • 脆弱性大屏

    进入目标工作空间管理页面 在左侧导航栏选择“安全态势 > 安全屏”,进入安全屏页面。 图2 进入安全屏页面 单击“脆弱性屏”图片,进入脆弱性屏信息页面,如图3。 页面中各个模块的功能介绍和使用方法详见下述内容。 图3 脆弱性屏 脆弱性屏总览 如图4所示,展示脆弱性资产、漏洞、不合格基线、未防护资产的总数。

    来自:帮助中心

    查看更多 →

  • 决策树分类特征重要性

    采用决策树分类算法计算数据集特征的特征重要性。 输入 参数 子参数 参数说明 inputs dataframe 参数必选,表示输入的数据集。 如果没有pipeline_model和decision_tree_classify_model参数,表示直接根据数据集训练决策树分类算法得到特征重要性

    来自:帮助中心

    查看更多 →

  • 创建Hive表

    建表时配置Hive数据加密 指定表的格式为RCFile(推荐使用)或SequenceFile,加密算法为ARC4Codec。SequenceFile是Hadoop特有的文件格式,RCFile是Hive优化的文件格式。RCFile优化了列存储,在对表进行查询时,综合性能表现比SequenceFile更优。

    来自:帮助中心

    查看更多 →

  • 使用Spark SQL作业分析OBS数据

    使用Spark SQL作业分析OBS数据 DLI支持将数据存储到OBS上,后续再通过创建OBS表即可对OBS上的数据进行分析和处理。 本指导中的操作内容包括:创建OBS表、导入OBS表数据、插入和查询OBS表数据等内容来帮助您更好的在DLI上对OBS表数据进行处理。 前提条件 已创建O

    来自:帮助中心

    查看更多 →

  • CREATE TABLE AS SELECT

    'cow', primaryKey = 'id') partitioned by (dt) as select 1 as id, 'a1' as name, 10 as price, 1000 as dt; 创建非分区表 create table h3 using hudi as select

    来自:帮助中心

    查看更多 →

  • Spark开源命令支持说明

    id; 仅支持查看当前数据库下表的列信息。 支持 支持 返回查询语句的元数据信息 DESCRIBE QUERY SELECT age, sum(age) FROM testDB.testTable1 GROUP BY age; 不支持 支持 返回插入数据的元数据信息 DESCRIBE

    来自:帮助中心

    查看更多 →

  • 查看大单续订任务

    查看单续订任务 单续订任务是指通过自动化任务识别将到期的未续单,提前提醒伙伴客户经理跟进客户引导续订,帮助伙伴进行订单续订管理,提升客户留存、减少流失。 任务订单范围为自然月内将到期的实付金额≥5000元但还未完成续订的订单(金额续费率<60%),不包括偏一次性购买或客户续

    来自:帮助中心

    查看更多 →

  • 恢复多版本备份数据

    恢复多版本备份数据 功能描述 在DLI数据多版本功能开启后,您可以通过RESTORE TABLE命令恢复表或分区数据到指定版本。开启和关闭多版本语法请参考开启或关闭数据多版本。 DLI数据多版本功能当前仅支持通过Hive语法创建的OBS表,具体建表SQL语法可以参考使用Hive语法创建OBS表。

    来自:帮助中心

    查看更多 →

  • SAP监控大屏配置应用监控成功但没有数据

    SAP监控屏配置应用监控成功但没有数据 如果出现屏配置应用监控成功但没有数据,您可以根据表1中列举的原因进行排除。 表1 故障排除 可能原因 排除方案 屏配置错误,或配置的应用已删除。 进入编辑模式,检查应用、应用SID、数据库应用、数据库应用SID配置是否符合规划,如有错误,修正并更新配置即可。

    来自:帮助中心

    查看更多 →

  • SAP监控大屏配置应用监控成功但没有数据

    SAP监控屏配置应用监控成功但没有数据 如果出现屏配置应用监控成功但没有数据,您可以根据表1中列举的原因进行排除。 表1 故障排除 可能原因 排除方案 屏配置错误,或配置的应用已删除。 进入编辑模式,检查应用、应用SID、数据库应用、数据库应用SID配置是否符合规划,如有错误,修正并更新配置即可。

    来自:帮助中心

    查看更多 →

  • SAP监控大屏配置应用监控成功但没有数据

    SAP监控屏配置应用监控成功但没有数据 如果出现屏配置应用监控成功但没有数据,您可以根据表1中列举的原因进行排除。 表1 故障排除 可能原因 排除方案 屏配置错误,或配置的应用已删除。 进入编辑模式,检查应用、应用SID、数据库应用、数据库应用SID配置是否符合规划,如有错误,修正并更新配置即可。

    来自:帮助中心

    查看更多 →

  • SAP监控大屏配置应用监控成功但没有数据

    SAP监控屏配置应用监控成功但没有数据 如果出现屏配置应用监控成功但没有数据,您可以根据表1 故障排除中列举的原因进行排除。 表1 故障排除 可能原因 排除方案 屏配置错误,或配置的应用已删除。 在“SAP监控屏”区域,检查应用、应用SID、数据库应用、数据库应用SID配

    来自:帮助中心

    查看更多 →

  • 租户整体大屏介绍

    租户整体屏介绍 使用注册的华为乾坤帐号登录控制台,详细过程参见帐号注册。 租户屏主要由资产网络和资产安全两模块组成,具体模块内容介绍如表1所示。 图1 租户整体屏 在控制台左上角,选择“屏 > 租户整体屏”。 单击页面上,支持用户自定义租户屏,资产网络和资产安全图表均最多支持选择4个。详细参见表1。

    来自:帮助中心

    查看更多 →

  • 增量数据同步

    入口路径:控制台 > 数据开发 单击“数据开发”,进入数据开发的界面 新建Spark SQL脚本 图10 数据开发1 选择数据连接和数据库 图11 数据开发2 添加表头注释 设置脚本参数 开发增转全脚本 增转全规则:通过增量时间戳获取180天的增量数据,然后将增量数据和180天前的数据进行整合,存放在新生成的分区里。

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了