是否停止运行此脚本 更多内容
  • 运行脚本

    运行脚本 功能介绍 运行脚本,该接口是同步接口(同步接口是指调用后,会等待函数执行结束后,才返回结果)。满足输入参数条件后执行该脚本,不会在控制台打印出日志,但会输出运行结果。 在脚本保存成功和输入参数正确的情况下,可以运行脚本,但该接口目前已很少使用(可以用custom API运行脚本)。

    来自:帮助中心

    查看更多 →

  • 停止脚本实例的执行

    停止脚本实例的执行 功能介绍 该接口用以停止脚本实例的执行。 调试 您可以在 API Explorer 中调试该接口,支持自动认证鉴权。 URI URI格式 POST /v1/{project_id}/scripts/{script_name}/instances/{instance_id}/stop

    来自:帮助中心

    查看更多 →

  • CSS是否支持停止集群

    CSS是否支持停止集群 CSS不支持停止集群功能。如果是迁移集群的场景,用户需要将旧集群的功能先暂停,确认集群迁移成功后,再将旧集群删除。可以采用如下方式处理: 如果使用的集群版本支持流量控制功能,可以使用一键断流切断节点上除运维接口外的所有流量。 如果使用的集群版本不支持流量控

    来自:帮助中心

    查看更多 →

  • 重试/停止/继续运行节点

    单击指定节点查看详情,可以对运行中的节点进行停止操作。 继续运行 对于单个节点中设置了需要运行中配置的参数时,节点运行会处于“等待操作”状态,用户完成相关数据的配置后,可单击“继续运行”按钮并确认继续执行当前节点。 父主题: 如何使用Workflow

    来自:帮助中心

    查看更多 →

  • 编写开机运行脚本

    编写开机运行脚本 应用容器化时,一般需要准备开机运行脚本,写作脚本的方式和写一般shell脚本相同。该脚本的主要目的包括: 启动应用所依赖的软件。 将需要修改的配置设置为环境变量。 开机运行脚本与应用实际需求直接相关,每个应用所写的开机脚本会有所区别。请根据实际业务需求来写该脚本。

    来自:帮助中心

    查看更多 →

  • 脚本

    脚本 对应相对复杂的业务逻辑,AstroZero提供了脚本、服务编排等后台逻辑形式。本章节主要带您了解脚本的基础知识。 AstroZero的脚本引擎采用TypeScript语言。脚本执行时,TypeScript语言会被翻译成JavaScript语言,由JavaScript引擎执行。在JavaScript

    来自:帮助中心

    查看更多 →

  • MRS Flink Job

    自定义作业 脚本路径 是 选择Flink SQL作业时,可配置参数。 选择需要执行的Flink SQL脚本。如果脚本未创建,请参考新建脚本和开发SQL脚本先创建和开发Flink SQL脚本脚本参数 否 选择Flink SQL作业时,可配置参数。 关联的SQL脚本如果使用了参

    来自:帮助中心

    查看更多 →

  • RDS SQL

    超时后,系统支持再重试。 当节点运行超时导致的失败不会重试时,您可前往“默认项设置”修改策略。 当“失败重试”配置为“是”才显示“超时重试”。 当前节点失败后,后续节点处理策略 是 节点执行失败后的操作: 终止后续节点执行计划:停止后续节点的运行,当前作业实例状态显示为“失败”。

    来自:帮助中心

    查看更多 →

  • 脚本

    脚本 运行脚本 调试脚本 获取脚本签名信息 获取脚本内置库信息 获取Flow公式信息 父主题: API

    来自:帮助中心

    查看更多 →

  • MRS ClickHouse

    前往“默认项设置”修改策略。 当“失败重试”配置为“是”才显示“超时重试”。 当前节点失败后,后续节点处理策略 是 节点执行失败后的操作: 终止后续节点执行计划:停止后续节点的运行,当前作业实例状态显示为“失败”。 终止当前作业执行计划:停止当前作业运行,当前作业实例状态显示为“失败”。

    来自:帮助中心

    查看更多 →

  • MRS Spark SQL

    8.7版本或 MRS 2.0.1之后版本,需要配置参数。 MRS SparkSQL作业的运行程序参数,请参见《MapReduce用户指南》中的“运行SparkSql作业 > 表2 运行程序参数”。 节点名称 是 默认显示为SQL脚本的名称,支持修改。 节点名称只能由字母、数字、中

    来自:帮助中心

    查看更多 →

  • Python

    前往“默认项设置”修改策略。 当“失败重试”配置为“是”才显示“超时重试”。 当前节点失败后,后续节点处理策略 是 节点执行失败后的操作: 终止后续节点执行计划:停止后续节点的运行,当前作业实例状态显示为“失败”。 终止当前作业执行计划:停止当前作业运行,当前作业实例状态显示为“失败”。

    来自:帮助中心

    查看更多 →

  • MRS HetuEngine

    超时后,系统支持再重试。 当节点运行超时导致的失败不会重试时,您可前往“默认项设置”修改策略。 当“失败重试”配置为“是”才显示“超时重试”。 当前节点失败后,后续节点处理策略 是 节点执行失败后的操作: 终止后续节点执行计划:停止后续节点的运行,当前作业实例状态显示为“失败”。

    来自:帮助中心

    查看更多 →

  • MRS Impala SQL

    超时后,系统支持再重试。 当节点运行超时导致的失败不会重试时,您可前往“默认项设置”修改策略。 当“失败重试”配置为“是”才显示“超时重试”。 当前节点失败后,后续节点处理策略 是 节点执行失败后的操作: 终止后续节点执行计划:停止后续节点的运行,当前作业实例状态显示为“失败”。

    来自:帮助中心

    查看更多 →

  • MRS Hive SQL

    前往“默认项设置”修改策略。 当“失败重试”配置为“是”才显示“超时重试”。 当前节点失败后,后续节点处理策略 是 节点执行失败后的操作: 终止后续节点执行计划:停止后续节点的运行,当前作业实例状态显示为“失败”。 终止当前作业执行计划:停止当前作业运行,当前作业实例状态显示为“失败”。

    来自:帮助中心

    查看更多 →

  • Shell

    当节点运行超时导致的失败不会重试时,您可前往“默认项设置”修改策略。 当“失败重试”配置为“是”才显示“超时重试”。 重试条件 否 失败重试选择“是”时,支持设置重试条件。 打开重试条件的开关,设置返回码的范围。 Shell作业可以根据返回码判断作业节点执行失败是否重试。用户可以定义Shell的返回结果码中哪些返回码可以重跑。

    来自:帮助中心

    查看更多 →

  • MRS Spark Python

    若集群为MRS 1.8.7版本或MRS 2.0.1之后版本,需要配置参数。 MRS Spark作业的运行程序参数,请参见《MapReduce用户指南》中的运行Spark作业。 参数 是 仅“脚本类型”配置为“离线脚本”时可以配置。 输入参数信息,多个参数间使用Enter键分隔。 执行程序参数

    来自:帮助中心

    查看更多 →

  • 查询实时作业运行状态

    STOPPING : 停止中 STOPPED:停止 logPath 否 String 节点运行日志路径 type 是 String 节点类型: Hive SQL :执行Hive SQL脚本 Spark SQL :执行Spark SQL脚本 DWS SQL : 执行DWS SQL脚本 DLI SQL

    来自:帮助中心

    查看更多 →

  • MRS Presto SQL

    前往“默认项设置”修改策略。 当“失败重试”配置为“是”才显示“超时重试”。 当前节点失败后,后续节点处理策略 是 节点执行失败后的操作: 终止后续节点执行计划:停止后续节点的运行,当前作业实例状态显示为“失败”。 终止当前作业执行计划:停止当前作业运行,当前作业实例状态显示为“失败”。

    来自:帮助中心

    查看更多 →

  • 移动脚本/脚本目录

    在数据开发主界面的左侧导航栏,选择“数据开发 > 脚本开发”。 移动脚本脚本目录。 方式一:通过右键的“移动”功能。 在脚本目录中选择需要移动的脚本脚本文件夹,右键单击脚本脚本文件夹名称,选择“移动”。 图1 移动 在弹出的“移动脚本”或“移动目录”页面,配置如表1所示的参数。 图2 移动脚本 图3 移动目录

    来自:帮助中心

    查看更多 →

  • DWS SQL

    超时后,系统支持再重试。 当节点运行超时导致的失败不会重试时,您可前往“默认项设置”修改策略。 当“失败重试”配置为“是”才显示“超时重试”。 当前节点失败后,后续节点处理策略 是 节点执行失败后的操作: 终止后续节点执行计划:停止后续节点的运行,当前作业实例状态显示为“失败”。

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了