apache怎么运行 更多内容
  • 发布运行态

    发布运行态 工作流调试完成后,可以进行固化保存,调用Workflow对象的release()方法发布到运行态进行配置执行(在管理控制台Workflow页面配置)。 执行如下命令: workflow.release() 上述命令执行完成后,如果日志打印显示发布成功,则可前往Mode

    来自:帮助中心

    查看更多 →

  • 部分运行

    署,工作流发布至运行态后,部分运行的开关默认关闭,节点全部运行。用户可在全局配置页面打开开关,选择指定的场景进行运行。 部分运行能力支持同一个节点被定义在不同的运行场景中,但是需要用户自行保证节点之间数据依赖的正确性。另外,部分运行能力仅支持在运行态进行配置运行,不支持在开发态进行调试。

    来自:帮助中心

    查看更多 →

  • 创建运行用户

    创建运行用户 若使用root用户安装 可以使用root用户进行安装,但安装完之后要求使用非root用户运行,所以安装前需要先创建运行用户。 如果创建的用户是HwHiAiUser,安装软件包时可以直接使用该运行用户,默认即为HwHiAiUser。 如果创建的用户是非HwHiAiUs

    来自:帮助中心

    查看更多 →

  • 查看运行记录

    查看运行记录 系统会以表格的方式记录用户的执行操作记录,方便用户在分析数据时了解执行进度和执行完成时间。 查看运行记录的具体步骤如下: 进入图引擎编辑器页面,详细操作请参见访问图引擎编辑器。 在执行Gremlin/Cypher/DSL查询或算法分析之后,在“运行记录”页签下会展示

    来自:帮助中心

    查看更多 →

  • 批量运行作业

    批量运行作业 功能介绍 该API用于触发批量运行作业。 调试 您可以在 API Explorer 中调试该接口。 URI URI格式 POST /v1.0/{project_id}/streaming/jobs/run 参数说明 表1 URI参数说明 参数名称 是否必选 参数类型 说明

    来自:帮助中心

    查看更多 →

  • 运行Flink作业

    运行Flink作业 用户可将自己开发的程序提交到 MRS 中,执行程序并获取结果。本章节指导用户在MRS集群页面如何提交一个新的Flink作业。Flink作业用于提交jar程序处理流式数据。 操作视频 本视频以在未开启Kerberos认证的MRS 3.1.0版本集群的管理控制台上,提

    来自:帮助中心

    查看更多 →

  • 流运行监控

    4。 表4 当流程运行成功输出参数说明 参数 说明 流程ID 监控流程的ID。 流程名称 监控流程的名称。 运行记录ID 流程的运行记录ID。 运行开始的时间 流程运行开始的时间。 运行结束的时间 流程运行结束的时间。 状态 流程运行状态。 运行结果 流程运行结果详情。 父主题:

    来自:帮助中心

    查看更多 →

  • 运行环境要求

    运行环境要求 运行环境要求,如表1所示。 表1 运行环境要求 配置项 基本配置要求 CPU I5-7500或以上 内存 8 GB 操作系统 Windows 10 Professional 64bit 浏览器 推荐使用最新版本的Chrome浏览器(Stable Channel版本)或Firefox浏览器(ESR版本)。

    来自:帮助中心

    查看更多 →

  • 作业运行概述

    作业运行概述 作业运行主要包括如下功能: 启动作业 查询作业状态 查看作业操作记录 停止作业 父主题: 作业运行

    来自:帮助中心

    查看更多 →

  • HelloDavinci编译运行

    已安装Atlas 500 DDK。已安装第三方CMake编译工具(2.8.4版本以上)。若无CMake编译工具,请参考使用CMake编译业务软件安装。若无CMake编译工具,请参考使用CMake编译业务软件安装。其中${workPath}为HelloDavinci目录。

    来自:帮助中心

    查看更多 →

  • HelloDavinci编译运行

    已完成环境配置。已安装Atlas产品驱动。已安装第三方CMake编译工具(2.8.4版本以上)。若无CMake编译工具,请自行安装。若无CMake编译工具,请自行安装。已安装DDK并配置好DDK_HOME。其中${workPath}为HelloDavinci目录。Atlas 300 AI加速卡 (型号 3000)驱动安装后,root及Hw

    来自:帮助中心

    查看更多 →

  • 代码运行故障

    代码运行故障 Notebook运行代码报错,在'/tmp'中到不到文件 Notebook无法执行代码,如何处理? 运行训练代码,出现dead kernel,并导致实例崩溃 如何解决训练过程中出现的cudaCheckError错误? 开发环境提示空间不足,如何解决? 如何处理使用opencv

    来自:帮助中心

    查看更多 →

  • 准备运行环境

    准备运行环境 准备Windows运行环境 父主题: 准备开发环境

    来自:帮助中心

    查看更多 →

  • 运行服务管理

    运行服务管理 获取运行服务清单 部署应用 卸载应用 父主题: API

    来自:帮助中心

    查看更多 →

  • 检查运行环境

    检查运行环境 接口描述 调用此接口,主要检查当前系统是否可运行SDK,当前运行环境支持见9.1概述-表1 环境要求。 方法定义 1 checkSystemRequirements():Promise<Result> 参数描述 无。 返回值 Result的结构参考9.7.1返回结构参考-表1

    来自:帮助中心

    查看更多 →

  • 运行脚本

    运行脚本 功能介绍 运行脚本,该接口是同步接口(同步接口是指调用后,会等待函数执行结束后,才返回结果)。满足输入参数条件后执行该脚本,不会在控制台打印出日志,但会输出运行结果。 在脚本保存成功和输入参数正确的情况下,可以运行该脚本,但该接口目前已很少使用(可以用custom API运行脚本)。

    来自:帮助中心

    查看更多 →

  • 剧本运行监控

    剧本运行监控 功能介绍 剧本运行监控 调用方法 请参见如何调用API。 URI GET /v1/{project_id}/workspaces/{workspace_id}/soc/playbooks/{playbook_id}/monitor 表1 路径参数 参数 是否必选 参数类型

    来自:帮助中心

    查看更多 →

  • 运行高级查询

    运行高级查询 功能介绍 执行高级查询。 调用方法 请参见如何调用API。 URI POST /v1/resource-manager/domains/{domain_id}/run-query 表1 路径参数 参数 是否必选 参数类型 描述 domain_id 是 String 账号ID。

    来自:帮助中心

    查看更多 →

  • 流程运行服务

    流程运行服务 流程实例 我的流程任务 日志管理 JOB管理 域名 管理 父主题: 流程引擎

    来自:帮助中心

    查看更多 →

  • 在DataArts Studio上运行DLI SQL脚本,执行结果报org.apache.hadoop.fs.obs.OBSIOException错误

    DataArts Studio 运行 DLI SQL脚本,执行结果报org.apache.hadoop.fs.obs.OBSIOException错误 问题现象 在DataArts Studio上运行DLI SQL脚本,执行结果的运行日志显示语句执行失败,错误信息为: DLI.0999:

    来自:帮助中心

    查看更多 →

  • 在本地Windows环境中调测MapReduce应用

    在程序代码完成开发后,您可以在Windows环境中运行应用。本地和集群业务平面网络互通时,您可以直接在本地进行调测。 MapReduce应用程序运行完成后,可通过如下方式查看应用程序的运行情况。 在IntelliJ IDEA中查看应用程序运行情况。 通过MapReduce日志获取应用程序运行情况。 登录MapReduce

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了