更新时间:2023-05-05 GMT+08:00
执行spark sql脚本
概述
对数据集执行spark sql脚本操作。
输入
参数 |
子参数 |
参数说明 |
---|---|---|
inputs |
dataframe |
inputs为字典类型,dataframe为pyspark中的DataFrame类型对象 |
输出
数据集
参数说明
参数 |
子参数 |
参数说明 |
---|---|---|
sql_string |
- |
sql脚本的格式化字符串,例如: "SELECT age FROM adult_table WHERE age > 50" |
样例
inputs = { "dataframe": None # @input {"label":"dataframe","type":"DataFrame"} } params = { "inputs": inputs, "sql_string": "" # @param {"label":"sql_string","type":"string","required":"true","helpTip":""} } execute_sql____id___ = MLSExecuteSql(**params) execute_sql____id___.run() # @output {"label":"dataframe","name":"execute_sql____id___.get_outputs()['output_port_1']","type":"DataFrame"}
父主题: 数据处理