文档首页> 数据治理中心 DataArts Studio> 常见问题> 数据开发> Hive SQL和Spark SQL脚本执行失败,界面只显示执行失败,没有显示具体的错误原因?
更新时间:2022-12-07 GMT+08:00

Hive SQL和Spark SQL脚本执行失败,界面只显示执行失败,没有显示具体的错误原因?

请确认当前Hive SQL和Spark SQL脚本使用的数据连接为“直接连接”还是“通过代理连接”。

“直接连接”模式下DataArts Studio通过API把脚本提交给MRS,然后查询是否执行完成;而MRS不会将具体的错误原因反馈到DataArts Studio,因此导致数据开发脚本执行界面只能显示执行成功还是失败。

如果需要查看具体的错误原因,则需要到MRS的作业管理界面进行查看。

数据开发 所有常见问题

more