-
Spark连接Kafka认证错误
-
如何在DLI中运行复杂PySpark程序?
-
适用于人工智能与机器学习场景的合规实践
-
DLI作业开发流程
-
Spark应用开发简介
-
HCIA-Big Data
-
Livy部署
-
SparkStreaming消费Kafka消息失败,提示“Error getting partition metadata”
-
基本概念
-
MRS最佳实践汇总
-
通过Spark Streaming作业消费Kafka数据
登录 FusionInsight Manager界面,单击“集群 > 服务 > Spark2x”。 在服务概览页面单击Spark WebUI后的链接地址,可进入History Server页面。 单击待查看的App ID,您可以查看Spark Streaming作业的状态。 图5 查看Spark Streaming作业状态
来自:帮助中心 -
数据迁移到MRS前信息收集
-
DataArts Studio支持的数据源
-
学习项目
-
Spark Streaming对接kafka0-10程序
-
迁移学习
-
配置Spark Streaming对接Kafka可靠性
-
Spark Streaming对接Kafka0-10样例程序开发思路
-
Spark应用开发流程介绍
-
Spark Streaming对接Kafka0-10样例程序开发思路
-
配置Spark Streaming对接Kafka时数据后进先出功能