文档首页> 数据治理中心 DataArts Studio> 用户指南(吉隆坡区域)> 常见问题> 数据开发> Hive SQL和Spark SQL脚本脚本执行失败,界面只显示执行失败,没有显示具体的错误原因?
更新时间:2022-08-17 GMT+08:00

Hive SQL和Spark SQL脚本脚本执行失败,界面只显示执行失败,没有显示具体的错误原因?

请确认当前Hive SQL和Spark SQL脚本使用的数据连接为“直接连接”还是“通过代理连接”。

“直接连接”模式下DataArts Studio通过API把脚本提交给MRS,然后查询是否执行完成;而MRS不会将具体的错误原因反馈到DataArts Studio,因此导致数据开发脚本执行界面只能显示执行成功还是失败。

如果需要查看具体的错误原因,则需要到MRS的作业管理界面进行查看。