更新时间:2022-05-05 GMT+08:00
将Spark作业结果存储在MySQL数据库中,缺少pymysql模块,如何使用python脚本访问MySQL数据库?
- 缺少pymysql模块,可以查看是否有对应的egg包,如果没有,在“程序包管理”页面上传pyFile。具体步骤参考如下:
- 将egg包上传到指定的OBS桶路径下。
- 登录DLI管理控制台,单击“数据管理 > 程序包管理”。
- 在“程序包管理”页面,单击右上角“创建”可创建程序包。
- 在“创建程序包”对话框,配置如下参数:
- 包类型:PyFile。
- OBS路径:选择1.aegg包所在的OBS路径。
- 分组设置和分组名称根据情况选择。
- 单击“确定”完成程序包上传。
- 在报错的Spark作业编辑页面,“依赖python文件”处选择已上传的egg程序包,重新运行Spark作业。
- pyspark作业对接MySQL,需要创建跨源链接,打通DLI和RDS之间的网络。通过管理控制台创建跨源连接请参考《数据湖探索用户指南》,通过API创建跨源连接请参考《数据湖探索API参考》。
父主题: Spark作业相关问题
Spark作业相关问题所有常见问题
- Spark如何将数据写入到DLI表中
- 如何查看DLI Spark作业的实际资源使用情况
- DLI Spark作业是否支持定时周期任务作业
- 通用队列操作OBS表如何设置AK/SK
- 运行Spark作业报java.lang.AbstractMethodError
- Spark作业访问MySQL数据库的方案
- 将Spark作业结果存储在MySQL数据库中,缺少pymysql模块,如何使用python脚本访问MySQL数据库?
- 添加Python包后,找不到指定的Python环境
- 如何在DLI中运行复杂PySpark程序?
- Spark作业访问OBS数据时报ResponseCode: 403和ResponseStatus: Forbidden错误
- Spark作业运行大批量数据时上报作业运行超时异常错误
- Spark SQL语法创建表时是否支持定义主键
- 如何通过JDBC设置spark.sql.shuffle.partitions参数提高并行度
more
