文档首页/
MapReduce服务 MRS/
开发指南(普通版_3.x)/
Spark2x开发指南(普通模式)/
调测Spark应用/
在Linux环境中调测Spark应用/
在Linux环境中查看Spark程序调测结果
更新时间:2024-08-05 GMT+08:00
在Linux环境中查看Spark程序调测结果
操作场景
Spark应用程序运行完成后,可通过如下方式查看应用程序的运行情况。
- 通过运行结果数据查看应用程序运行情况。
- 登录Spark WebUI查看应用程序运行情况。
- 通过Spark日志获取应用程序运行情况。
操作步骤
- 查看Spark应用运行结果数据。
结果数据存储路径和格式已经由Spark应用程序指定,可通过指定文件获取。
- 查看Spark应用程序运行情况。
Spark主要有两个Web页面。
- Spark UI页面,用于展示正在执行的应用的运行情况。
页面主要包括了Jobs、Stages、Storage、Environment和Executors五个部分。Streaming应用会多一个Streaming标签页。
页面入口:在YARN的Web UI界面,查找到对应的Spark应用程序。单击应用信息的最后一列“ApplicationMaster”,即可进入SparkUI页面。
- History Server页面,用于展示已经完成的和未完成的Spark应用的运行情况。
页面包括了应用ID、应用名称、开始时间、结束时间、执行时间、所属用户等信息。单击应用ID,页面将跳转到该应用的SparkUI页面。
- Spark UI页面,用于展示正在执行的应用的运行情况。
- 查看Spark日志获取应用运行情况。
您可以查看Spark日志了解应用运行情况,并根据日志信息调整应用程序。相关日志信息可参考Spark2x日志介绍。
父主题: 在Linux环境中调测Spark应用