更新时间:2023-05-05 GMT+08:00
分享

执行spark sql脚本

概述

对数据集执行spark sql脚本操作。

输入

参数

子参数

参数说明

inputs

dataframe

inputs为字典类型,dataframe为pyspark中的DataFrame类型对象

输出

数据集

参数说明

参数

子参数

参数说明

sql_string

-

sql脚本的格式化字符串,例如:

"SELECT age FROM adult_table WHERE age > 50"

样例

inputs = {
    "dataframe": None  # @input {"label":"dataframe","type":"DataFrame"}
}
params = {
    "inputs": inputs,
    "sql_string": ""  # @param {"label":"sql_string","type":"string","required":"true","helpTip":""}
}
execute_sql____id___ = MLSExecuteSql(**params)
execute_sql____id___.run()
# @output {"label":"dataframe","name":"execute_sql____id___.get_outputs()['output_port_1']","type":"DataFrame"}

分享:

    相关文档

    相关产品