文档首页/ 智能数据湖 AIDataLake/ 用户指南/ 使用DataArts Studio开发AI DataLake作业
更新时间:2026-04-14 GMT+08:00
分享

使用DataArts Studio开发AI DataLake作业

AI DataLake完成引擎端点的配置后,您就已经具备了提交作业的必要条件:计算资源和引擎的配置。

接下来将要依托DataArts Studio作业开发模块完成数据查询、数据处理等任务。本节操作介绍使用DataArts Studio完成作业开发的关键操作指导。

AI DataLake的快速入门中,以Aura Job为例介绍了完整的作业开发流程,了解更多请参见快速上手使用AI DataLake查询数据

作业开发前的准备工作

  • 开通DataArts Studio。
  • 已在DataArts Studio创建工作空间。

创建并开发作业

开发作业前,您可以通过图1了解DataArts Studio数据开发模块作业开发的基本流程。
图1 作业开发流程
  1. 新建作业:当前提供两种作业类型:批处理和实时处理,分别应用于批量数据处理和实时连接性数据处理,其中批处理作业支持Pipeline和单节点作业两种模式,具体请参见新建作业
  2. 开发作业:基于新建的作业,进行作业开发,您可以进行编排、配置节点。具体请参见开发Pipeline作业
  3. 调度作业:配置作业调度任务。具体请参见调度作业
    • 如果您的作业是批处理作业,您可以配置作业级别的调度任务,即以作业为一个整体进行调度,支持单次调度、周期调度、事件驱动调度三种调度方式。具体请参见配置作业调度任务(批处理作业)
    • 如果您的作业是实时处理作业,您可以配置节点级别的调度任务,即每一个节点可以独立调度,支持单次调度、周期调度、事件驱动调度三种调度方式。具体请参见配置节点调度任务(实时作业)
  4. 提交版本并解锁:作业调度配置完成后,您需要提交版本并解锁,提交版本并解锁后才能用于调度运行,便于其他开发者修改。具体请参见提交版本
  5. (可选)管理作业:作业开发完成后,您可以根据需要,进行作业管理。具体请参见(可选)管理作业
  6. 发布作业。企业模式下需要发布作业,具体请参见发布作业任务

在AI DataLake Aura端点页面查看作业运行信息

  1. 登录AI DataLake管理控制台。
  2. 在页面左上角切换至对应的工作空间。
  3. 在左侧导航栏选择“引擎管理 > 多模数据引擎Aura”进入Aura引擎端点列表页面,单击运行作业的端点名称进入概览页面。
  4. 选择“作业运行历史”,在列表中即可查看作业的运行状态,“成功”即表示作业执行成功。
  5. 也可单击“查看详情”查看作业详细信息。

    表1 作业运行详情

    参数

    参数说明

    示例

    作业运行名称

    运行的作业名称。

    -

    运行状态

    作业的运行状态。

    • 成功:作业运行成功。
    • 失败:作业运行失败。
    • 停止中:正在停止作业。
    • 运行中:正在运行作业。
    • 已停止:作业停止成功。

    成功

    运行端点名称

    运行作业的Aura端点名称。

    test

    作业运行 ID

    运行的作业ID。

    -

    创建时间

    创建作业的时间。

    2026/04/07 11:36:38 GMT+08:00

    运行时长 (秒)

    作业的运行时长。

    4664

    Job 版本

    Job版本。

    -

    创建人

    创建作业的用户名称。

    -

    日志组 ID

    对接LTS后,存储日志的日志组ID。

    -

    日志流 ID

    对接LTS后,存储日志的日志流组ID。

    -

    作业参数

    作业配置的相关参数。

    -

相关文档