文档首页/ 数据治理中心 DataArts Studio/ 常见问题/ 数据开发/ Hive SQL和Spark SQL脚本执行失败,界面只显示执行失败,没有显示具体的错误原因?
更新时间:2024-07-23 GMT+08:00
分享

Hive SQL和Spark SQL脚本执行失败,界面只显示执行失败,没有显示具体的错误原因?

可能原因

Hive SQL和Spark SQL脚本执行失败,界面只显示执行失败,没有显示具体的错误原因,可能是由于连接方式导致的。

解决方案

请确认当前Hive SQL和Spark SQL脚本使用的数据连接为“MRS API连接”还是“通过代理连接”。

“MRS API连接”模式下DataArts Studio通过API把脚本提交给MRS,然后查询是否执行完成;而MRS不会将具体的错误原因反馈到DataArts Studio,因此导致数据开发脚本执行界面只能显示执行成功还是失败。

“通过代理连接”模式下DataArts Studio提交脚本并运行,查看脚本是否执行完成,同时在数据开发脚本执行界面,日志中会显示具体错误信息和脚本执行的结果。

如果需要查看具体的错误原因,则需要到MRS的作业管理界面进行查看。

相关文档