Notebook
功能
通过Notebook节点执行一个在DLI中预先定义的Notebook作业。
约束限制
该功能依赖于OBS服务。
参数
参数 |
是否必选 |
说明 |
---|---|---|
节点名称 |
是 |
节点名称,可以包含中文、英文字母、数字、“_”、“-”、“/”、“<”、“>”等各类特殊字符,长度为1~128个字符。 |
Spark作业名称 |
是 |
填写DLI Spark作业的名称,只能包含英文字母、数字、“_”,且长度为1~64个字符。默认与节点的名称一致。 |
DLI队列 |
是 |
下拉选择需要使用的队列。 |
作业特性 |
否 |
选择DLI队列后,该参数根据实际需要可以设置。 用户作业使用的Spark镜像类型(当前支持基础型和自定义的Spark镜像)。
|
Spark版本 |
是 |
选择了DLI队列后,该参数必填。 选择Spark版本。 |
作业运行资源 |
否 |
选择作业运行的资源规格:
|
输入目录 |
是 |
在OBS桶下选择运行Notebook文件的路径。输入目录的绝对路径长度不超过1024个字符。 |
输入Notebook文件 |
是 |
在OBS输入目录下选择Notebook文件。文件格式为.ipynb格式。绝对路径长度不超过2048个字符。 |
输出Notebook文件路径 |
是 |
在OBS桶下选择输出Notebook文件运行结果的路径。输出目录的绝对路径长度不超过1024个字符。 |
输出Notebook文件名 |
是 |
输出Notebook文件名。文件名长度不能超过256个字符。文件格式为.ipynb格式。 |
输入Notebook参数 |
否 |
为本次执行的Notebook作业配置相关参数。 |
Spark作业运行参数 |
否 |
以“key=value”的形式设置提交Spark作业的属性,多个参数以Enter键分隔。具体参数请参见Spark Configuration。 Spark参数value支持全局变量替换。例如,在“全局配置”>“全局变量”中新增全局变量key为custom_class,可以使用"spark.sql.catalog"={{custom_class}},在提交作业之后进行变量替换。
说明:
Spark作业不支持自定义设置jvm垃圾回收算法。 |
参数 |
是否必选 |
说明 |
---|---|---|
节点状态轮询时间(秒) |
是 |
设置轮询时间(1~60秒),每隔x秒查询一次节点是否执行完成。 |
节点执行的最长时间 |
是 |
设置节点执行的超时时间,如果节点配置了重试,在超时时间内未执行完成,该节点将会再次重试。 |
失败重试 |
是 |
节点执行失败后,是否重新执行节点。
|
当前节点失败后,后续节点处理策略 |
是 |
节点执行失败后的操作:
|
是否空跑 |
否 |
如果勾选了空跑,该节点不会实际执行,将直接返回成功。 |
任务组 |
否 |
选择任务组。任务组配置好后,可以更细粒度地进行当前任务组中的作业节点的并发数控制,比如作业中包含多个节点、补数据、重跑等场景。 |