数据湖探索 DLI

数据湖探索(Data Lake Insight,简称DLI)是完全兼容Apache Spark和Apache Flink生态, 实现批流一体的Serverless大数据计算分析服务。DLI支持多模引擎,企业仅需使用SQL或程序就可轻松完成异构数据源的批处理、流处理、内存计算、机器学习等,挖掘和探索数据价值

 
进入控制台立即购买帮助文档DLI开发者社区1对1咨询                
               

           

    spark 查看作业队列信息 更多内容
  • DLI Spark

    DLI Spark 功能 通过DLI Spark节点执行一个预先定义的Spark作业。 DLI Spark节点的具体使用教程,请参见开发一个DLI Spark作业。 参数 用户可参考表1,表2和表3配置DLI Spark节点的参数。 表1 属性参数 参数 是否必选 说明 节点名称

    来自:帮助中心

    查看更多 →

  • 使用SQL编辑器提交SQL作业

    放,就不会有该问题,或者提交作业后等一段时间再查看SparkUI,确保集群已经拉好了,不要立即单击SparkUI。 目前DLI配置SparkUI只展示最新的100条作业信息。 default队列下运行的作业或者该作业为同步作业时不支持该操作。 更多:以下操作根据SQL类型和运行状

    来自:帮助中心

    查看更多 →

  • 为什么Spark jar 作业 一直处于“提交中”?

    为什么Spark jar 作业 一直处于“提交中”? Spark jar 作业 一直处于“提交中”可能是队列剩余的CU量不足导致作业无法提交。 查看队列的的剩余步骤如下: 查看队列CU使用量。 点击“ 云监控服务 > 云服务监控 > 数据探索湖 > 队列监控 > 队列CU使用量” 。

    来自:帮助中心

    查看更多 →

  • DLI Spark 2.3.2版本停止服务(EOS)公告

    在DLI管理控制台,购买弹性资源池和队列资源,用于提供执行作业所需的计算资源。 单击“作业管理 > Spark作业”,新建Spark作业。 在作业管理页面,单击作业操作列的“编辑”,进入作业运行参数编辑页面。 配置Spark版本,选择最新的Spark引擎版本,推荐使用Spark 2.4.5。 公告发布日期:2023年7月6日

    来自:帮助中心

    查看更多 →

  • 访问FlinkUI/SparkUI页面无法正常显示怎么办?

    访问FlinkUI/SparkUI页面无法正常显示怎么办? 问题现象 访问FlinkUI/SparkUI页面无法正常显示,打开页面返回信息不全。 根因分析 根据分析发现队列为按需队列队列运行作业的时候会重新创建集群,大概需要10分钟左右才能完成集群创建。在集群创建完成之前,访问

    来自:帮助中心

    查看更多 →

  • MRS Spark SQL

    终止后续节点执行计划:停止后续节点的运行,当前作业实例状态显示为“失败”。 终止当前作业执行计划:停止当前作业运行,当前作业实例状态显示为“失败”。 继续执行下一节点:忽略当前节点失败,当前作业实例状态显示为“忽略失败”。 挂起当前作业执行计划:当前作业实例的状态为运行异常,该节点的后续节点以及依赖于当前作业的后续作业实例都会处于等待运行状态。

    来自:帮助中心

    查看更多 →

  • 创建并提交Spark作业

    。 创建批处理作业:创建并提交Spark批处理作业查询批处理作业状态:查看批处理作业状态。 查询批处理作业日志:查看批处理作业日志。 操作步骤 创建通用队列。具体请参考创建队列。 上传分组资源。 接口相关信息 URI格式:POST /v2.0/{project_id}/resources

    来自:帮助中心

    查看更多 →

  • 约束与限制

    7(EOS) SQL作业支持Spark和Trino两种引擎。 Spark:显示执行引擎为“Spark”的作业。 Trino:显示执行引擎为“Trino”的作业。 DLI配置SparkUI只展示最新的100条作业信息。 控制台界面查询结果最多显示1000条作业结果数据,如果需要查看更多或者全

    来自:帮助中心

    查看更多 →

  • 运维指导

    运维指导 查看DLI队列负载 如何判断当前DLI队列中的作业是否有积压? 如何将老版本的Spark队列切换成通用型队列 为什么云监控CES服务看不到DLI队列的资源运行情况? 购买了64CU的队列资源,运行Spark作业时如何分配? 创建扩容任务时 ,提示Queue plans create

    来自:帮助中心

    查看更多 →

  • 使用DLI提交SQL作业查询OBS数据

    “添加队列”。 配置队列的基础配置,具体参数信息如下。 表3 弹性资源池添加队列基础配置 参数名称 参数说明 配置样例 名称 弹性资源池添加的队列名称。 dli_queue_01 类型 选择创建的队列类型。 执行SQL作业请选择SQL队列。 执行Flink或Spark作业请选择通用队列。

    来自:帮助中心

    查看更多 →

  • MRS作业简介

    记录作业执行完成或手工停止的时间。 操作 对当前作业执行相关操作。部分操作可以在“更多”中选择。 查看日志:单击“查看日志”,查看运行中的作业执行的实时日志信息。操作方法,请参见查看作业配置信息和日志。 查看详情:单击“查看详情”,查看作业的详细配置信息。操作方法,请参见查看作业配置信息和日志。

    来自:帮助中心

    查看更多 →

  • 启动作业后,Hudi作业长时间处于BOOTING状态,然后作业失败,日志报错Read Timeout怎么解决?

    象,大概率是 MRS 集群的jdbc server出了问题。 单租户执行不了spark sql,则多半是队列资源限制,打开yarn,搜索租户的队列查看Spark2x-JD BCS erver2x的yarn任务,此时可能会搜索不到yarn任务,或者State为ACCEPTED,这两种情况

    来自:帮助中心

    查看更多 →

  • 作业管理类

    作业提交参数间用空格隔开导致参数信息不被识别如何处理? Spark作业的Client模式和Cluster模式有什么区别? 如何查看MRS作业的日志? 提交作业时系统提示当前用户在Manager不存在如何处理? LauncherJob作业执行失败,报错信息为“jobPropertiesMap is null”如何处理?

    来自:帮助中心

    查看更多 →

  • DLI SDK功能矩阵

    SDK使用说明。 Flink作业相关 介绍新建Flink作业查询作业详情、查询作业列表等Java SDK使用说明。 Spark作业相关 介绍提交Spark作业查询所有Spark作业、删除Spark作业等Java SDK使用说明。 Flink作业模板相关 介绍新建Flink作业模板、更新Fl

    来自:帮助中心

    查看更多 →

  • 在弹性资源池中添加队列

    弹性资源池添加的队列名称。 类型 SQL队列:用于运行SQL作业。 通用队列:用于运行Spark作业 、Flink 作业。 执行引擎 如果队列类型选择为“SQL队列”,则可以选择队列引擎是:spark或者trino 企业项目 选择队列的企业项目。弹性资源池支持添加不同企业项目的队列资源。

    来自:帮助中心

    查看更多 →

  • 查看Loader作业历史信息

    查看Loader作业历史信息 操作场景 该任务指导您在日常运维中,查看某个Loader作业的历史执行状态以及每次执行时长,同时提供该作业两种操作: 脏数据:查看作业执行过程中处理失败的数据、或者被清洗过滤掉的数据,针对该数据可以查看源数据中哪些数据不符合转换、清洗规则。 日志:查

    来自:帮助中心

    查看更多 →

  • 数据湖探索成长地图

    作业模板相关API SDK参考 准备环境 队列相关SDK 资源相关SDK SQL作业相关SDK Spark作业相关SDK Flink作业相关SDK Flink作业模板相关SDK 02 购买 DLI服务目前支持:SQL作业Spark作业和Flink作业。您可以根据业务类型以及数据量大小灵活选择DLI的计费方式。

    来自:帮助中心

    查看更多 →

  • 查询作业模板列表

    String 作业特性。表示用户作业使用的Spark镜像类型。 basic:表示使用DLI提供的基础Spark镜像。 custom:表示使用用户自定义的Spark镜像。 ai:表示使用DLI提供的AI镜像。 spark_version String 作业使用Spark组件的版本号。

    来自:帮助中心

    查看更多 →

  • 读Hudi作业长时间出于BOOTING状态怎么解决?

    读Hudi作业长时间出于BOOTING状态怎么解决? 问题原因1:除去Yarn队列资源问题,一般作业是卡在执行Spark SQL读Hudi写Hive临时表,这步执行的速度取决于Hudi表的数据量与Yarn队列剩余资源。 问题排查1:查看Yarn任务,搜索Spark JDBC Se

    来自:帮助中心

    查看更多 →

  • 如何将老版本的Spark队列切换成通用型队列

    如何将老版本的Spark队列切换成通用型队列 当前DLI服务包括“SQL队列”和“通用队列”两种队列类型。 其中,“SQL队列”用于运行SQL作业,“通用队列”兼容老版本的Spark队列,用于运行Spark作业和Flink作业。 通过以下步骤,可以将老版本的“Spark队列”转换为新的“通用队列”。

    来自:帮助中心

    查看更多 →

  • 入门实践

    Jar读写DIS开发指南 介绍Flink Jar作业读写DIS数据的操作方法。 Spark Jar作业开发 使用Spark Jar作业读取和查询OBS数据 介绍从编写Spark程序代码读取和查询OBS数据、编译打包到提交Spark Jar作业的开发样例。 数据迁移 迁移Hive数据至DLI

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了