- 最新动态
- 功能总览
- 服务公告
- 产品介绍
- 计费说明
- 快速入门
-
用户指南
- DLI作业开发流程
- 准备工作
- 创建弹性资源池和队列
- 创建数据库和表
- 数据迁移与数据传输
- 配置DLI访问其他云服务的委托权限
- 使用DLI提交SQL作业
- 使用DLI提交Flink作业
- 使用DLI提交Spark作业
- 使用Notebook实例提交DLI作业
- 使用CES监控DLI服务
- 使用AOM监控DLI服务
- 使用CTS审计DLI服务
- 权限管理
- DLI常用管理操作
- 最佳实践
-
开发指南
- 使用客户端工具连接DLI
- SQL作业开发指南
- Flink作业开发指南
- Spark Jar作业开发指南
-
语法参考
-
Spark SQL语法参考
- Spark SQL常用配置项说明
- Spark SQL语法概览
- Spark开源命令支持说明
- 数据库相关
- 表相关
- 数据相关
- 导出查询结果
- 跨源连接相关
- 视图相关
- 查看计划
- 数据权限相关
- 数据类型
- 自定义函数
-
内置函数
-
日期函数
- 日期函数概览
- add_months
- current_date
- current_timestamp
- date_add
- dateadd
- date_sub
- date_format
- datediff
- datediff1
- datepart
- datetrunc
- day/dayofmonth
- from_unixtime
- from_utc_timestamp
- getdate
- hour
- isdate
- last_day
- lastday
- minute
- month
- months_between
- next_day
- quarter
- second
- to_char
- to_date
- to_date1
- to_utc_timestamp
- trunc
- unix_timestamp
- weekday
- weekofyear
- year
-
字符串函数
- 字符串函数概览
- ascii
- concat
- concat_ws
- char_matchcount
- encode
- find_in_set
- get_json_object
- instr
- instr1
- initcap
- keyvalue
- length
- lengthb
- levenshtein
- locate
- lower/lcase
- lpad
- ltrim
- parse_url
- printf
- regexp_count
- regexp_extract
- replace
- regexp_replace
- regexp_replace1
- regexp_instr
- regexp_substr
- repeat
- reverse
- rpad
- rtrim
- soundex
- space
- substr/substring
- substring_index
- split_part
- translate
- trim
- upper/ucase
- 数学函数
- 聚合函数
- 分析窗口函数
- 其他函数
-
日期函数
- SELECT
-
标示符
- aggregate_func
- alias
- attr_expr
- attr_expr_list
- attrs_value_set_expr
- boolean_expression
- class_name
- col
- col_comment
- col_name
- col_name_list
- condition
- condition_list
- cte_name
- data_type
- db_comment
- db_name
- else_result_expression
- file_format
- file_path
- function_name
- groupby_expression
- having_condition
- hdfs_path
- input_expression
- input_format_classname
- jar_path
- join_condition
- non_equi_join_condition
- number
- num_buckets
- output_format_classname
- partition_col_name
- partition_col_value
- partition_specs
- property_name
- property_value
- regex_expression
- result_expression
- row_format
- select_statement
- separator
- serde_name
- sql_containing_cte_name
- sub_query
- table_comment
- table_name
- table_properties
- table_reference
- view_name
- view_properties
- when_expression
- where_condition
- window_function
- 运算符
-
Flink SQL语法参考
- Flink Opensource SQL1.15语法参考
- Flink Opensource SQL1.12语法参考
- Flink Opensource SQL1.10语法参考
-
HetuEngine SQL语法参考
-
HetuEngine SQL语法
- 使用前必读
- 数据类型
-
DDL 语法
- CREATE SCHEMA
- CREATE TABLE
- CREATE TABLE AS
- CREATE TABLE LIKE
- CREATE VIEW
- ALTER TABLE
- ALTER VIEW
- ALTER SCHEMA
- DROP SCHEMA
- DROP TABLE
- DROP VIEW
- TRUNCATE TABLE
- COMMENT
- VALUES
- SHOW语法使用概要
- SHOW SCHEMAS(DATABASES)
- SHOW TABLES
- SHOW TBLPROPERTIES TABLE|VIEW
- SHOW TABLE/PARTITION EXTENDED
- SHOW FUNCTIONS
- SHOW PARTITIONS
- SHOW COLUMNS
- SHOW CREATE TABLE
- SHOW VIEWS
- SHOW CREATE VIEW
- DML 语法
- DQL 语法
- 辅助命令语法
- 预留关键字
- SQL函数和操作符
- 数据类型隐式转换
- 附录
-
HetuEngine SQL语法
- Hudi SQL语法参考
- Delta SQL语法参考
-
Spark SQL语法参考
-
API参考
- API使用前必读
- API概览
- 如何调用API
- API快速入门
- 权限相关API
- 全局变量相关API
- 资源标签相关API
- 增强型跨源连接相关API
- 跨源认证相关API
- 弹性资源池相关API
- 队列相关API(推荐)
- SQL作业相关API
- SQL模板相关API
- Flink作业相关API
- Flink作业模板相关API
- Flink作业管理相关API
- Spark作业相关API
- Spark作业模板相关API
- 权限策略和授权项
- 历史API
- 公共参数
- SDK参考
- 场景代码示例
-
常见问题
- DLI产品咨询类
- DLI弹性资源池和队列类
-
DLI数据库和表类
- 为什么在DLI控制台中查询不到表?
- OBS表压缩率较高怎么办?
- 字符码不一致导致数据乱码怎么办?
- 删除表后再重新创建同名的表,需要对操作该表的用户和项目重新赋权吗?
- DLI分区内表导入的文件不包含分区列的数据,导致数据导入完成后查询表数据失败怎么办?
- 创建OBS外表,由于OBS文件中的某字段存在换行符导致表字段数据错误怎么办?
- join表时没有添加on条件,造成笛卡尔积查询,导致队列资源爆满,作业运行失败怎么办?
- 手动在OBS表的分区目录下添加了数据,但是无法查询到数据怎么办?
- 为什么insert overwrite覆盖分区表数据的时候,覆盖了全量数据?
- 跨源连接RDS表中create_date字段类型是datetime,为什么DLI中查出来的是时间戳呢?
- SQL作业执行完成后,修改表名导致datasize不正确怎么办?
- 从DLI导入数据到OBS,数据量不一致怎么办?
-
增强型跨源连接类
- 增强型跨源连接绑定队列失败怎么办?
- DLI增强型跨源连接DWS失败怎么办?
- 创建跨源成功但测试网络连通性失败怎么办?
- 怎样配置DLI队列与数据源的网络连通?
- 为什么DLI增强型跨源连接要创建对等连接?
- DLI创建跨源连接,绑定队列一直在创建中怎么办?
- 新建跨源连接,显示已激活,但使用时提示communication link failure错误怎么办?
- 跨源访问MRS HBase,连接超时,日志未打印错误怎么办?
- DLI跨源连接报错找不到子网怎么办?
- 跨源RDS表,执行insert overwrite提示Incorrect string value错误怎么办?
- 创建RDS跨源表提示空指针错误怎么办?
- 对跨源DWS表执行insert overwrite操作,报错:org.postgresql.util.PSQLException: ERROR: tuple concurrently updated
- 通过跨源表向CloudTable Hbase表导入数据,executor报错:RegionTooBusyException
- 通过DLI跨源写DWS表,非空字段出现空值异常怎么办?
- 更新跨源目的端源表后,未同时更新对应跨源表,导致insert作业失败怎么办?
- RDS表有自增主键时怎样在DLI插入数据?
-
SQL作业类
- SQL作业开发类
-
SQL作业运维类
- 用户导表到OBS报“path obs://xxx already exists”错误
- 对两个表进行join操作时,提示:SQL_ANALYSIS_ERROR: Reference 't.id' is ambiguous, could be: t.id, t.id.;
- 执行查询语句报错:The current account does not have permission to perform this operation,the current account was restricted. Restricted for no budget.
- 执行查询语句报错:There should be at least one partition pruning predicate on partitioned table XX.YYY
- LOAD数据到OBS外表报错:IllegalArgumentException: Buffer size too small. size
- SQL作业运行报错:DLI.0002 FileNotFoundException
- 用户通过CTAS创建hive表报schema解析异常错误
- 在DataArts Studio上运行DLI SQL脚本,执行结果报org.apache.hadoop.fs.obs.OBSIOException错误
- 使用CDM迁移数据到DLI,迁移作业日志上报UQUERY_CONNECTOR_0001:Invoke DLI service api failed错误
- SQL作业访问报错:File not Found
- SQL作业访问报错:DLI.0003: AccessControlException XXX
- SQL作业访问外表报错:DLI.0001: org.apache.hadoop.security.AccessControlException: verifyBucketExists on {{桶名}}: status [403]
- 执行SQL语句报错:The current account does not have permission to perform this operation,the current account was restricted. Restricted for no budget.
-
Flink作业类
- Flink作业咨询类
-
Flink SQL作业类
- 怎样将OBS表映射为DLI的分区表?
- Flink SQL作业Kafka分区数增加或减少,怎样不停止Flink作业实现动态感知?
- 在Flink SQL作业中创建表使用EL表达式,作业运行提示DLI.0005错误怎么办?
- Flink作业输出流写入数据到OBS,通过该OBS文件路径创建的DLI表查询无数据
- Flink SQL作业运行失败,日志中有connect to DIS failed java.lang.IllegalArgumentException: Access key cannot be null错误
- Flink SQL作业消费Kafka后sink到es集群,作业执行成功,但未写入数据
- Flink Opensource SQL如何解析复杂嵌套 JSON?
- Flink Opensource SQL从RDS数据库读取的时间和RDS数据库存储的时间为什么会不一致?
- Flink Opensource SQL Elasticsearch结果表failure-handler参数填写retry_rejected导致提交失败
- Kafka Sink配置发送失败重试机制
- 如何在一个Flink作业中将数据写入到不同的Elasticsearch集群中?
- 作业语义检验时提示DIS通道不存在怎么处理?
- Flink jobmanager日志一直报Timeout expired while fetching topic metadata怎么办?
- Flink Jar作业类
- Flink作业性能调优类
-
Spark作业相类
- Spark作业开发类
-
Spark作业运维类
- 运行Spark作业报java.lang.AbstractMethodError
- Spark作业访问OBS数据时报ResponseCode: 403和ResponseStatus: Forbidden错误
- 有访问OBS对应的桶的权限,但是Spark作业访问时报错 verifyBucketExists on XXXX: status [403]
- Spark作业运行大批量数据时上报作业运行超时异常错误
- 使用Spark作业访问sftp中的文件,作业运行失败,日志显示访问目录异常
- 执行作业的用户数据库和表权限不足导致作业运行失败
- 为什么Spark3.x的作业日志中打印找不到global_temp数据库
- 在使用Spark2.3.x访问元数据时,DataSource语法创建avro类型的OBS表创建失败
- DLI资源配额类
- DLI权限管理类
- DLI API类
- 视频帮助
- 文档下载
- 通用参考
链接复制成功!
查看Flink作业详情
创建作业后,您可以在DLI管理控制台查看Flink作业的基本信息、作业详情、任务列表、执行计划等信息。
本节操作介绍怎样查看Flink作业相关信息。
类型 |
说明 |
操作指导 |
---|---|---|
Flink作业基本信息 |
包括Flink作业的ID、作业类型、作业执行状态等信息。 |
|
Flink作业详情 |
包括作业的SQL语句和参数设置信息,Jar作业支持查看参数设置信息。 |
|
Flink作业监控 |
通过云监控服务(CES)查看作业数据输入输出的详细信息。 |
|
Flink作业任务列表 |
查看作业运行时每个任务的详细信息,例如任务的开始时间、收发字节数和运行时长等。 |
|
Flink作业执行计划 |
了解运行中的作业的算子流向。 |
查看Flink作业基本信息
单击“作业管理 > Flink作业”,进入Flink作业管理页面。Flink作业管理页面显示所有的Flink作业,通过Flink作业列表可以了解Flink作业的基本信息。
参数 |
参数说明 |
---|---|
ID |
所提交Flink作业的ID,由系统默认生成。 |
名称 |
所提交Flink作业的名称。 |
类型 |
所提交Flink作业的类型。包括:
|
状态 |
作业的状态信息。具体状态信息以控制台为准。 |
描述 |
所提交Flink作业的描述。 |
用户名 |
提交作业的用户名称。 |
创建时间 |
每个作业的创建时间。 |
开始时间 |
Flink作业开始运行的时间。 |
运行时长 |
作业运行所消耗的时间。 |
操作 |
|
查看Flink作业详情
用户作业创建完成并保存后,用户可以单击作业名查看作业的详细信息,包括作业的SQL语句和参数设置信息,如果是 jar作业只可以看到参数设置信息。
- 在DLI管理控制台的左侧导航栏中,单击“作业管理”>“Flink作业”,进入Flink作业管理页面。
- 单击需要查看的作业名称,进入“作业详情”页面。
在“作业详情”页签,用户可以查看作业的SQL语句、参数设置信息和总费用。
以某个Flink SQL作业为例进行说明。表3 参数说明 参数名称
参数说明
类型
作业类型,如Flink SQL作业。
名称
Flink作业名称。
描述
Flink作业描述信息。
状态
Flink作业运行状态。
运行模式
默认独享模式。
Flink 版本
作业所选的Flink作业的版本。
所属队列
Flink作业所属的队列名称。
UDF Jar
配置UDF Jar参数时显示。
优化参数
作业添加了自定义参数配置时显示该参数。
CU数量
作业配置的CU数量。
管理单元
作业配置的管理单元CU数量。
并行数
作业配置的同时运行Flink作业的任务数。
单TM所占CU数
作业配置的每个TaskManager所占CU数量。
单TM Slot数
作业配置的每个TaskManager Slot数量。
OBS桶
作业配置了OBS桶显示。当勾选“开启Checkpoint”和“保存作业日志”参数后,用于保存Checkpoint和作业运行日志。
保存作业日志
开启或关闭。
作业异常告警
开启或关闭。
SMN主题
作业配置的SMN主题名称。当作业勾选了“作业异常告警”参数时显示。
异常自动重启
开启或关闭。
异常重试最大次数
异常重试最大次数为无限时显示为“无限”,其余为设置的具体值。
从Checkpoint恢复
开启或关闭。
ID
作业ID。
保存点路径
保存点的OBS存储路径。
开启Checkpoint
开启或关闭。
Checkpoint间隔
将作业运行的中间结果保存到OBS的间隔时间,单位为秒。
Checkpoint模式
Checkpoint 模式:
- at_least_once:事件至少被处理一次
- exactly_once:事件仅被处理一次
空闲状态保留时长
用于清除GroupBy、RegularJoin、Rank、Depulicate等算子经过最大保留时间后仍未更新的中间状态,默认设置为1小时。
脏数据策略
作业出现脏数据时的处理策略。作业配置脏数据策略时显示该参数。
忽略。
抛出异常。
保存。
脏数据转储地址
“脏数据策略”选择“保存”时,保存脏数据的OBS路径。
创建时间
作业创建的具体时间。
更新时间
作业最近一次更新的时间。
查看Flink作业监控
用户可以通过云监控服务(CES)查看作业数据输入输出的详细信息。
- 在DLI管理控制台的左侧导航栏中,单击“作业管理”>“Flink作业”,进入Flink作业管理页面。
- 单击需要查看的作业名称,进入“作业详情”页面。
单击页面右上角的“作业监控”,将跳转至云监控服务(CES)。图1 作业监控
Flink 作业包含如下监控指标。
表4 Flink作业监控指标 指标名称
说明
Flink作业数据输入速率
展示用户Flink作业的数据输入速率,供监控和调试使用。单位:条/秒。
Flink作业数据输出速率
展示用户Flink作业的数据输出速率,供监控和调试使用。单位:条/秒。
Flink作业数据输入总数
展示用户Flink作业的数据输入总数,供监控和调试使用。单位:条。
Flink作业数据输出总数
展示用户Flink作业的数据输出总数,供监控和调试使用。单位:条。
Flink作业字节输入速率
展示用户Flink作业每秒输入的字节数。单位:字节/秒。
Flink作业字节输出速率
展示用户Flink作业每秒输出的字节数。单位:字节/秒。
Flink作业字节输入总数
展示用户Flink作业字节的输入总数。单位:字节。
Flink作业字节输出总数
展示用户Flink作业字节的输出总数。单位:字节。
Flink作业CPU使用率
展示用户Flink作业的CPU使用率。单位:%。
Flink作业内存使用率
展示用户Flink作业的内存使用率。单位:%。
Flink作业最大算子延迟
展示用户Flink作业的最大算子延迟时间,单位ms。
Flink作业最大算子反压
展示用户Flink作业的最大算子反压值,数值越大,反压越严重。
0:表示OK
50:表示Low
100:表示High
查看Flink作业任务列表
用户可以查看作业运行时每个任务的详细信息,例如任务的开始时间、收发字节数和运行时长等。
如果数据为零,表示没有从数据源接收到数据。
- 在DLI管理控制台的左侧导航栏中,单击“作业管理”>“Flink作业”,进入Flink作业管理页面。
- 单击需要查看的作业名称,进入“作业详情”页面。
- 在“任务列表”页签,可以查看任务的节点信息。
图2 任务列表查看算子任务列表,具体参见下表:
表5 算子任务列表参数 参数
说明
名称
算子名称。
持续时间
算子运行的持续时间。
最大并行数
算子中并行的Task的个数。
任务
算子的任务有以下几种:
- 红色数字表示已失败的Task个数。
- 浅灰色数字表示已取消的Task个数。
- 黄色数字表示取消中的Task个数。
- 绿色数字表示已完成的Task个数。
- 蓝色数字表示运行中的Task个数。
- 天蓝色数字表示部署中的Task个数。
- 深灰色数字表示排队中的Task个数。
状态
算子任务对应的状态。
反压状态
算子的工作负荷状态。包含如下几种状态:
- OK:表示工作负荷正常。
- LOW:表示工作负荷略高。DLI处理数据的速度比较快。
- HIGH:表示工作负荷高。源端输入数据的速度比较慢。
时延
指事件从源端算子到达本算子的过程中消耗的时间,单位为毫秒(ms)。
发送的记录数
算子发送数据的记录。
发送的字节数
算子发送的字节数。
接受的字节数
算子接收的字节数。
接受的记录数
算子收到数据的记录。
开始时间
算子运行开始时间。
结束时间
算子运行结束时间。