apache无法连接 更多内容
  • 函数无法通过VPC连接对应的Redis?

    函数无法通过VPC连接对应的Redis? 问题现象 相同的代码,函数能通过VPC1连通Redis1,但是不能通过VPC2连通Redis2。 解决方案 与客户确认问题现象,Redis1在VPC1中,Redis2在VPC2中,Redis客户端代码是同一套代码。 查看连接报错信息如下,

    来自:帮助中心

    查看更多 →

  • 云桌面无法连接外网怎么办?

    云桌面无法连接外网怎么办? 将系统代理关闭。 Windows桌面: 登录云桌面。 在云桌面左下角单击,选择,进入Windows设置页面。 单击“网络和Internet”,进入网络状态页面。 在左侧导航栏中单击“代理”,进入代理配置页面。 关闭代理。 能正常连接外网,结束。 不能正常连接外网,执行2。

    来自:帮助中心

    查看更多 →

  • DBService状态正常,组件无法连接DBService

    DBService状态正常,组件无法连接DBService 问题背景与现象 上层组件连接DBService失败,检查DBService组件状态正常,两个实例状态也正常。 图1 DBService状态 原因分析 上层组件是通过dbservice.floatip连接的DBService。 在

    来自:帮助中心

    查看更多 →

  • HBase客户端连接服务端时,长时间无法连接成功

    HBase客户端连接服务端时,长时间无法连接成功 问题 在HBase服务端出现问题,无法提供服务,此时HBase客户端进行表操作,会出现该操作挂起,长时间无任何反应。 回答 问题分析 当HBase服务端出现问题,HBase客户端进行表操作的时候,会进行重试,并等待超时。该超时默认值为Integer

    来自:帮助中心

    查看更多 →

  • HBase客户端连接服务端时长时间无法连接成功

    HBase客户端连接服务端时长时间无法连接成功 问题 在HBase服务端出现问题,无法提供服务,此时HBase客户端进行表操作,会出现该操作挂起,长时间无任何反应。 回答 问题分析 当HBase服务端出现问题,HBase客户端进行表操作的时候,会进行重试,并等待超时。该超时默认值为Integer

    来自:帮助中心

    查看更多 →

  • 客户端提示访问ZooKeeper失败

    mpl.java:38) 可能原因 客户端连接HiveServer时,HiveServer的地址是从ZooKeeper中自动获取,当ZooKeeper连接认证异常时,无法从ZooKeeper中获取正确的HiveServer地址。 在连接zookeeper认证时,需要客户端传入krb5

    来自:帮助中心

    查看更多 →

  • ECS无法连接到GaussDB(for MySQL)实例的原因

    connection error: protocol version mismatch. 此时,先确认采用的连接方式是普通连接还是SSL连接。 如果是采用SSL连接,是否开启SSL。 父主题: 数据库连接

    来自:帮助中心

    查看更多 →

  • 为什么Flink Web页面无法直接连接?

    为什么Flink Web页面无法直接连接? 问题 无法通过“http://JobManager IP:JobManager的端口”访问Web页面。 回答 由于浏览器所在的计算机IP地址未加到Web访问白名单导致。用户可以通过以下步骤来解决问题。 查看客户端的配置文件“conf/flink-conf

    来自:帮助中心

    查看更多 →

  • Flume客户端无法连接服务端

    Flume客户端无法连接服务端 问题现象 安装Flume客户端并设置Avro Sink与服务端通信,发现无法连接Flume服务端。 原因分析 服务端配置错误,监测端口启动失败,例如服务端Avro Source配置了错误的IP,或者已经被占用了的端口。 查看Flume运行日志: 2016-08-31

    来自:帮助中心

    查看更多 →

  • Kafka连接参数说明

    数据中心的Kafka需通过专线连接连接Apache Hadoop上的Kafka数据源时,相关参数如表2所示。 表2 Apache Kafka连接参数 参数名 说明 取值样例 名称 连接的名称,根据连接的数据源类型,用户可自定义便于记忆、区分的连接名。 kafka_link Kafka

    来自:帮助中心

    查看更多 →

  • Yarn-client模式提交Spark任务时ApplicationMaster尝试启动两次失败

    ppMaster进程,进程启动后要向Driver进程注册信息,注册成功后,任务才能继续。从AppMaster日志中可以看出,无法连接至Driver,所以任务失败。 解决办法 请检查Driver进程所在的IP是否可以ping通。 启动一个Spark PI任务,会有类似如下打印信息。

    来自:帮助中心

    查看更多 →

  • Kafka连接参数说明

    数据中心的Kafka需通过专线连接连接Apache Hadoop上的Kafka数据源时,相关参数如表2所示。 表2 Apache Kafka连接参数 参数名 说明 取值样例 名称 连接的名称,根据连接的数据源类型,用户可自定义便于记忆、区分的连接名。 kafka_link Kafka

    来自:帮助中心

    查看更多 →

  • 云桌面的登录状态为无法连接如何处理?

    云桌面的登录状态为无法连接如何处理? 操作场景 该操作指导管理员如何排查云桌面登录状态为“无法连接”。 操作步骤 针对UOS系统 登录管理控制台。 在待排查桌面操作列下单击“更多 > 远程登录”,输入密码后登录到云桌面。 在桌面左下角单击,选择检修工具,输入密码后单击“确定”,开始检修如图1所示。

    来自:帮助中心

    查看更多 →

  • CDM集群Hive连接无法查询库和表的内容

    CDM 集群Hive连接无法查询库和表的内容 问题描述 cdm集群hive连接无法查询到数据库和表的内容,手动配置库和表后字段可以显示,但报错hive 客户端初始化失败,无效的方案: get_table_req。 解决方案 用户的 MRS 集群是1.8.1,CDM为2.6.0。 报错看CDM封装的Hive

    来自:帮助中心

    查看更多 →

  • 节点无法连接互联网(公网),如何排查定位?

    节点无法连接互联网(公网),如何排查定位? 当节点无法连接互联网时,请参照如下方法排查。 排查项一:节点是否绑定弹性IP 登录E CS 控制台,查看节点对应的 弹性云服务器 是否已绑定弹性IP。 若弹性IP一栏有IP地址,表示已绑定弹性IP。若没有,请为弹性 云服务器 绑定弹性IP。 图1 节点是否已绑定弹性IP

    来自:帮助中心

    查看更多 →

  • 内网方式下ECS无法连接RDS实例的原因

    protocol version mismatch 此时,先确认采用的连接方式是非SSL连接还是SSL连接。 如果是采用SSL连接,是否开启SSL。 非SSL连接和SSL连接的具体步骤请参见连接实例内容。 父主题: 数据库连接

    来自:帮助中心

    查看更多 →

  • ACS已连接,SIP提示:对不起,暂时无法提供服务?

    ACS已连接,SIP提示:对不起,暂时无法提供服务? TE10/20 浏览器登录终端Web界面。 在“系统配置-网络- 服务器 设置”中,云服务的“云平台类型”选择成“手动”,检查SIP信息是否完成。 如果完成,将SIP的“注册服务器”改成“禁用”后保存。 然后再“启用”后保存,查看系统状态是否正常。

    来自:帮助中心

    查看更多 →

  • 收发事务消息

    如果执行成功,则发送事务提交,否则发送事务回滚。服务端在一段时间后如果一直收不到提交或回滚,则发起回查,生产者在收到回查后重新发送事务提交或回滚。消息只有在提交之后才投递给消费者,消费者对回滚的消息不可见。 收发事务消息前,请参考收集连接信息收集RocketMQ所需的连接信息。 约束与限制

    来自:帮助中心

    查看更多 →

  • 发送定时消息

    设定的时间点后才会发送给消费者进行消费。 发送定时消息前,请参考收集连接信息收集RocketMQ所需的连接信息。 约束与限制 仅RocketMQ实例5.x版本支持gRPC协议,4.8.0版本不支持。 客户端连接RocketMQ实例5.x版本收发定时消息前,需要确保Topic的消息类型为“定时”。

    来自:帮助中心

    查看更多 →

  • Apache Dubbo反序列化漏洞

    x的所有版本。 安全版本 Apache Dubbo 2.7.5版本。 解决方案 建议您将Apache Dubbo升级到2.7.5版本。 如果您无法快速升级版本,或者希望防护更多其他漏洞,可以使用华为云 Web应用防火墙 对该漏洞进行防护,请参照以下步骤进行防护: 购买WAF。 将网站 域名

    来自:帮助中心

    查看更多 →

  • Apache Kafka到MRS Kafka参数调优

    afka单条消息大的场景,可以适当调高每次获取的数据量,以提高性能。 properties.max.partition.fetch.bytes int 1048576 消费Kafka时服务器将返回的每个分区的最大字节数。Kafka单条消息大的场景,可以适当调高每次获取的数据量,以提高性能。

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了