弹性云服务器 ECS

 

弹性云服务器(Elastic Cloud Server)是一种可随时自助获取、可弹性伸缩的云服务器,帮助用户打造可靠、安全、灵活、高效的应用环境,确保服务持久稳定运行,提升运维效率

 
 

    批处理 服务器 更多内容
  • 查询批处理作业状态

    batch_id 是 批处理作业的ID。 请求消息 无请求参数。 响应消息 表2 响应参数说明 参数名称 是否必选 参数类型 说明 id 否 String 批处理作业的ID,采用UUID(通用唯一识别码)格式。 state 否 String 批处理作业的状态,请参见创建批处理作业中的表7。

    来自:帮助中心

    查看更多 →

  • 创建批处理作业

    String 批处理作业的ID。 appId 否 String 批处理作业的后台app ID。 name 否 String 创建时用户指定的批处理名称,不能超过128个字符。 owner 否 String 批处理作业所属用户。 proxyUser 否 String 批处理作业所属代理用户(资源租户)。

    来自:帮助中心

    查看更多 →

  • 取消批处理作业

    取消批处理作业 功能介绍 该API用于取消批处理作业。 作业状态为“已成功”或者“已失败”的批处理作业无法取消。 调试 您可以在 API Explorer 中调试该接口。 URI URI格式: DELETE /v2.0/{project_id}/batches/{batch_id} 参数说明

    来自:帮助中心

    查看更多 →

  • 角色批处理(API名称:batchRole)

    角色批处理(API名称:batchRole) 功能介绍 通过此服务,批量添加、修改、删除角色(一次请求只能进行一种操作, 有错误数据直接跳过) 相关接口 接口名称 调用说明 获取Token 调用该接口获取到Token,再调用其他接口时,需要在请求消息头中添加“Authorization”,其值即为Token。

    来自:帮助中心

    查看更多 →

  • 查询批处理作业详情

    owner 否 String 批处理作业所属用户。 proxyUser 否 String 批处理作业所属代理用户(资源租户)。 state 否 String 批处理作业的状态,请参见创建批处理作业中的表7。 kind 否 String 批处理作业类型,只支持spark类型参数。 log

    来自:帮助中心

    查看更多 →

  • 开发批处理单任务SQL作业

    开发批处理单任务SQL作业 对已新建的作业进行开发和配置。 开发单任务模式的批处理作业,请您参考开发SQL脚本、配置作业参数、质量监控、数据表、调测并保存作业和下载或转储脚本执行结果章节。 前提条件 已创建作业,详情请参见新建作业。 当前用户已锁定该作业,否则需要通过“抢锁”锁定

    来自:帮助中心

    查看更多 →

  • 查询批处理作业日志(废弃)

    查询批处理作业日志(废弃) 功能介绍 该API用于查询批处理作业的后台日志。 当前接口已废弃,不推荐使用。 调试 您可以在API Explorer中调试该接口。 URI URI格式: GET /v2.0/{project_id}/batches/{batch_id}/log 参数说明

    来自:帮助中心

    查看更多 →

  • Spark批处理相关API(废弃)

    Spark批处理相关API(废弃) 查询批处理作业日志(废弃) 父主题: 历史API

    来自:帮助中心

    查看更多 →

  • 使用Hue提交提交Bundle批处理作业

    使用Hue提交提交Bundle批处理作业 操作场景 当同时存在多个定时任务的情况下,用户可以通过Bundle任务进行批量管理作业。该任务指导用户通过Hue界面提交批量类型的作业。 前提条件 提交Bundle批处理之前需要提前配置好相关的Workflow和Coordinator作业。

    来自:帮助中心

    查看更多 →

  • 查询批处理作业列表

    String 批处理作业所在队列。 create_time 否 Long 批处理作业的创建时间。是单位为“毫秒”的时间戳。 name 否 String 批处理作业名称。 owner 否 String 批处理作业所属用户。 proxyUser 否 String 批处理作业所属代理用户(资源租户)。

    来自:帮助中心

    查看更多 →

  • 使用Hue提交Bundle批处理作业

    使用Hue提交Bundle批处理作业 操作场景 当同时存在多个定时任务的情况下,用户可以通过Bundle任务进行批量管理作业。该任务指导用户通过Hue界面提交批量类型的作业。 前提条件 提交Bundle批处理之前需要提前配置好相关的Workflow和Coordinator作业。 操作步骤

    来自:帮助中心

    查看更多 →

  • Spark作业相关API

    Spark作业相关API 创建批处理作业 查询批处理作业列表 查询批处理作业详情 查询批处理作业状态 取消批处理作业

    来自:帮助中心

    查看更多 →

  • Spark作业相关

    Spark作业相关 完整样例代码和依赖包说明请参考:Python SDK概述。 提交批处理作业 DLI 提供执行批处理作业的接口。您可以使用该接口执行批处理作业。示例代码如下: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18

    来自:帮助中心

    查看更多 →

  • Spark作业相关

    Cluster为用户自建的队列。 传参不能为JSON格式。 对应批处理作业提交提供两个接口: 异步 asyncSubmit,提交后直接返回,不等待 同步 submit,提交后会一直等待作业执行结束 删除批处理作业 DLI提供删除批处理作业的接口。您可以使用该接口删除批处理作业。示例代码如下: 1 2 3 4

    来自:帮助中心

    查看更多 →

  • 执行导出数据

    执行导出数据 前提条件 需要确保每一个CN和DN所在 服务器 到GDS服务器的IP和端口是互通的。 导出操作语法 执行数据导出语法: 1 INSERT INTO [foreign table 表名] SELECT * FROM [源表名]; 编写批处理任务脚本,实现并发批量导出数据。并发量视

    来自:帮助中心

    查看更多 →

  • 附录

    基本概念、云服务简介、专有名词解释 弹性云服务器 E CS :是一种可随时自助获取、可弹性伸缩的云服务器,可帮助您打造可靠、安全、灵活、高效的应用环境,确保服务持久稳定运行,提升运维效率。 弹性公网IP EIP:提供独立的公网IP资源,包括公网IP地址与公网出口带宽服务。可以与弹性云服务器、裸金属服务器、虚拟IP、

    来自:帮助中心

    查看更多 →

  • 修改Kafka Topic配置

    日志的时间。 批处理消息最大值 Kafka允许的最大批处理大小,如果启用消息压缩,则表示压缩后的最大批处理大小。 如果增加“批处理消息最大值”的值,且存在消费者版本早于0.10.2,此时消费者的“fetch size”值也必须增加,以便消费者可以获取增加后的批处理大小。 描述 Topic的描述信息。

    来自:帮助中心

    查看更多 →

  • 概述

    Insight,简称DLI)是完全兼容Apache Spark、Apache Flink、trino生态,提供一站式的流处理、批处理、交互式分析的Serverless融合处理分析服务。用户不需要管理任何服务器,即开即用。支持标准SQL/Spark SQL/Flink SQL,支持多种接入方式,并兼容主流数据

    来自:帮助中心

    查看更多 →

  • 创建并提交Spark作业

    上传分组资源:上传Spark作业所需的资源包。 查询组内资源包:确认上传的资源包是否正确。 创建批处理作业:创建并提交Spark批处理作业。 查询批处理作业状态:查看批处理作业状态。 查询批处理作业日志:查看批处理作业日志。 操作步骤 创建弹性资源池elastic_pool_dli 接口相关信息

    来自:帮助中心

    查看更多 →

  • API概览

    Flink作业模板相关API 包括新建模板、更新模板、删除模板和查询模板列表。 Spark作业相关API 包括创建批处理作业、取消批处理作业、查询批处理作业列表、查询批处理作业详情、查询批处理作业状态和查询批处理作业日志。 Spark作业模板相关API 包括保存SQL模板、创建作业模板等模板相关API。

    来自:帮助中心

    查看更多 →

  • Impala应用开发简介

    pala查询UI)。这为实时或面向批处理的查询提供了一个熟悉且统一的平台。作为查询大数据的工具补充,Impala不会替代基于MapReduce构建的批处理框架,例如Hive。基于MapReduce构建的Hive和其他框架最适合长时间运行的批处理作业。 Impala主要特点如下:

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了