文档首页> 数据治理中心 DataArts Studio> 常见问题> 数据开发> Hive SQL和Spark SQL脚本执行失败,界面只显示执行失败,没有显示具体的错误原因?
更新时间:2024-05-22 GMT+08:00
分享

Hive SQL和Spark SQL脚本执行失败,界面只显示执行失败,没有显示具体的错误原因?

请确认当前Hive SQL和Spark SQL脚本使用的数据连接为“MRS API连接”还是“通过代理连接”。

“MRS API连接”模式下DataArts Studio通过API把脚本提交给MRS,然后查询是否执行完成;而MRS不会将具体的错误原因反馈到DataArts Studio,因此导致数据开发脚本执行界面只能显示执行成功还是失败。

“通过代理连接”模式下DataArts Studio提交脚本并运行,查看脚本是否执行完成,同时在数据开发脚本执行界面,日志中会显示具体错误信息和脚本执行的结果。

如果需要查看具体的错误原因,则需要到MRS的作业管理界面进行查看。

分享:

数据开发 所有常见问题

more