-
由于Kafka配置的限制,导致Spark Streaming应用运行失败
方式一:推荐优化Spark Streaming应用程序中定义的批次时间,降低批次时间,可避免超过Kafka定义的阈值。一般建议以5-10秒/次为宜。 方式二:将Kafka的阈值调大,建议在 FusionInsight Manager中的Kafka服务进行参数设置,将socket.request.max.bytes参数值根据应用场景,适当调整。
来自:帮助中心 -
JDBC常用参数参考
-
以UDS方式连接
-
以UDS方式连接
-
部署同步程序
-
调测程序
-
Spark Core程序
-
DataStream程序
-
示例程序
-
示例程序
-
使用SSL进行安全的TCP/IP连接
-
配置AD域证书认证
-
JDBC常用参数参考
-
司机小程序
-
员工小程序
-
编写测试程序
-
调测程序
-
示例程序
-
示例程序
-
构建函数程序
-
Spark on HBase程序