文档首页/
MapReduce服务 MRS/
组件操作指南(普通版)/
使用Spark2x(MRS 3.x及之后版本)/
Spark2x常见问题/
SQL和DataFrame/
为什么不同服务之间互相删除UDF失败
更新时间:2022-09-30 GMT+08:00
为什么不同服务之间互相删除UDF失败
问题
不同服务之间互相删除UDF失败,例如,Spark SQL无法删除Hive创建的UDF。
回答
当前可以通过以下3种方式创建UDF:
- 在Hive端创建UDF。
- 通过JDBCServer接口创建UDF。用户可以通过Spark Beeline或者JDBC客户端代码来连接JDBCServer,从而执行SQL命令,创建UDF。
- 通过spark-sql创建UDF。
删除UDF失败,存在以下两种场景:
- 在Spark Beeline中,对于其他方式创建的UDF,需要重新启动Spark服务端的JDBCServer后,才能将此类UDF删除成功,否则删除失败。在spark-sql中,对于其他方式创建的UDF,需要重新启动spark-sql后,才能将此类UDF删除成功,否则删除失败。
原因:创建UDF后,Spark服务端的JDBCServer未重启或者spark-sql未重新启动的场景,Spark所在线程的FunctionRegistry对象未保存新创建的UDF,那么删除UDF时就会出现错误。
解决方法:重启Spark服务端的JDBCServer和spark-sql,再删除此类UDF。
- 在Hive端创建UDF时未在创建语句中指定jar包路径,而是通过add jar命令添加UDF的jar包如add jar /opt/test/two_udfs.jar,这种场景下,在其他服务中删除UDF时就会出现ClassNotfound的错误,从而导致删除失败。
原因:在删除UDF时,会先获取该UDF,此时会去加载该UDF对应的类,由于创建UDF时是通过add jar命令指定jar包路径的,其他服务进程的classpath不存在这些jar包,因此会出现ClassNotfound的错误从而导致删除失败。
解决方法:该方式创建的UDF不支持通过其他方式删除,只能通过与创建时一致的方式删除。
父主题: SQL和DataFrame