企业级大数据服务 更多内容
  • Flink企业级能力增强

    Flink企业级能力增强 Flink SQL语法增强 多流Join场景支持配置表级别的TTL时间 配置Flink SQL Client支持SQL校验功能 Flink作业大小表Join能力增强 FlinkSQL OVER窗口支持超期退窗 FlinkSQL Kafka和upsert-kafka

    来自:帮助中心

    查看更多 →

  • Hive企业级能力增强

    Hive企业级能力增强 配置Hive表不同分区分别存储至OBS和HDFS 配置Hive目录旧数据自动移除至回收站 配置Hive插入数据到不存在的目录中 配置创建Hive内部表时不能指定Location 配置用户在具有读和执行权限的目录中创建外表 配置基于HTTPS/HTTP协议的REST接口

    来自:帮助中心

    查看更多 →

  • HDFS企业级能力增强

    HDFS企业级能力增强 配置HDFS快速关闭文件功能 配置DataNode节点容量不一致时的副本放置策略 配置DataNode预留磁盘百分比 配置NameNode黑名单功能 配置Hadoop数据传输加密 配置HDFS多路读 配置HDFS细粒度锁 HDFS支持集群掉电自动恢复 父主题:

    来自:帮助中心

    查看更多 →

  • 数据服务常见问题

    数据服务常见问题 标定文件上传失败的原因? 平台对接数据格式有哪些要求?

    来自:帮助中心

    查看更多 →

  • 配置数据服务审核中心

    后申请立即生效。 图2 审核按钮 撤销API申请 数据服务平台提供撤销待审核申请的功能,您可在“审核中心 >申请列表”撤销待审核申请。 在 DataArts Studio 控制台首页,选择对应工作空间的“数据服务”模块,进入数据服务页面。 在左侧导航选择服务版本(例如:专享版),进入总览页。

    来自:帮助中心

    查看更多 →

  • 新建数据服务审核人

    Studio实例控制台,登录DataArts Studio管理控制台。 在DataArts Studio控制台首页,选择对应工作空间的“数据服务”模块,进入数据服务页面。 在左侧导航选择服务版本(例如:专享版),进入总览页。 单击左侧导航栏中的“审核中心”,进入相应页面后,选择“审核人管理”页签,然后单击“新建”按钮。

    来自:帮助中心

    查看更多 →

  • Spark SQL企业级能力增强

    Spark SQL企业级能力增强 配置矢量化读取ORC数据 配置过滤掉分区表中路径不存在的分区 配置Hive表分区动态覆盖 配置Spark SQL开启Adaptive Execution特性 配置SparkSQL的分块个数 父主题: 使用Spark2x( MRS 3.x及之后版本)

    来自:帮助中心

    查看更多 →

  • Flume企业级能力增强

    Flume企业级能力增强 使用Flume客户端加密工具 配置Flume对接安全模式Kafka 父主题: 使用Flume

    来自:帮助中心

    查看更多 →

  • 订购数据服务相关接口

    订购数据服务相关接口 获取集成服务订购数据服务信息 订购数据服务 退订数据服务 更新租户订购状态 数据服务试用转商用 父主题: 数据接入

    来自:帮助中心

    查看更多 →

  • 数据服务角色访问权限

    数据服务角色访问权限 数据服务定义了7种角色,见表1。 表1 角色名称及说明 角色名称 说明 Data Acquisition Engineer 表示数据采集工程师,负责数据采集、传输和入湖。 Data Processing Engineer 表示数据工程师,负责数据解析适配、预

    来自:帮助中心

    查看更多 →

  • 新建DAYU数据服务连接

    填写所需连接的DAYU 数据服务应用的AppKey。 AppSecret 填写所需连接的DAYU 数据服务应用的AppSecret。 填写完数据源信息后,单击“确定”即可完成DAYU数据连接的添加。 使用DAYU 数据服务连接 您可以参考使用API数据源,配置使用DAYU 数据服务数据源。 父主题:

    来自:帮助中心

    查看更多 →

  • 数据服务SDK概述

    数据服务SDK概述 本文档指导API调用者通过数据服务SDK代码调用数据API,当前数据服务SDK代码仅支持调用API场景。 数据服务SDK介绍 数据服务SDK是基于DataArts Studio数据服务创建的数据API封装的SDK包。通过调用此SDK包提供的代码样例,即可进行数

    来自:帮助中心

    查看更多 →

  • 配置关联的数据服务

    页面显示当前数字化场景下已关联的数据服务。单击具体服务“API编码”链接查看服务详情。 单击“关联服务”,弹出选择数据服务窗口。 选择数据服务弹窗仅显示已发布的数据服务。 勾选要关联的数据服务。 已关联的数据服务不能重复关联。如果服务数量太多,可通过单击按钮,输入关键字快速筛选搜索。 单击“确认”,关联成功。

    来自:帮助中心

    查看更多 →

  • 数据服务试用转商用

    数据服务试用转商用 功能介绍 租户试用转商用。 URI URI格式 POST /softcomai/datalake/datacollect/v1.0/order/updateMAConf 参数说明 无。 请求 请求样例 POST https://ip:port/softcoma

    来自:帮助中心

    查看更多 →

  • 数据服务SDK参考

    数据服务SDK参考 数据服务SDK概述 SDK使用前准备 SDK调用常见错误码/错误信息 使用APP认证调用API

    来自:帮助中心

    查看更多 →

  • 全量数据服务概述

    用开发人员可以在应用运行态的全量数据服务快速获取应用下所有类型API的清单、查看API详情、导出全量数据服务API,提升模型的消费速度和API调用速度,快速使能工业应用。 使用方法 请参见常用全量数据服务API开发示例。 父主题: 使用全量数据服务API

    来自:帮助中心

    查看更多 →

  • 数据服务配置数据搬迁

    数据服务配置数据搬迁 当前管理中心支持直接搬迁数据服务组件中已发布的API数据。 您可以通过管理中心配置数据搬迁进行搬迁,也可以参考本章节通过数据服务的导入导出功能进行搬迁。 约束限制 全量导出必须具备 Administrator或Tenant Administrator权限。

    来自:帮助中心

    查看更多 →

  • Spark Core企业级能力增强

    Spark Core企业级能力增强 配置Spark HA增强高可用 配置Spark事件队列大小 配置parquet表的压缩格式 使用Ranger时适配第三方JDK 使用Spark小文件合并工具说明 配置流式读取Spark Driver执行结果 父主题: 使用Spark2x(MRS

    来自:帮助中心

    查看更多 →

  • 企业级会议事件推送

    企业级会议事件推送 概述 应用示例 接口参考 父主题: 会议事件推送

    来自:帮助中心

    查看更多 →

  • Spark Core企业级能力增强

    Spark Core企业级能力增强 配置Spark HA增强高可用 配置Spark Native引擎 配置Spark事件队列大小 配置parquet表的压缩格式 使用Ranger时适配第三方JDK 使用Spark小文件合并工具说明(MRS 3.3.0及之后版本) 使用Spark小文件合并工具说明(MRS

    来自:帮助中心

    查看更多 →

  • Spark SQL企业级能力增强

    Spark SQL企业级能力增强 配置矢量化读取ORC数据 配置过滤掉分区表中路径不存在的分区 配置Drop Partition命令支持批量删除 配置Hive表分区动态覆盖 配置Spark SQL开启Adaptive Execution特性 配置Spark SQL语法支持关联子查询不带聚合函数

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了