playbok和shell 更多内容
  • JDK版本不匹配导致启动spark-sql和spark-shell失败

    JDK版本不匹配导致启动spark-sqlspark-shell失败 问题背景与现象 JDK版本不匹配导致客户端启动spark-sql、spark-shell失败。 原因分析 在Driver端打印异常如下: Exception Occurs: BadPadding 16/02/22

    来自:帮助中心

    查看更多 →

  • 使用了交互性的Shell命令

    使用了交互性的Shell命令 问题现象 部署Shell命令:“yum install” ; “cat ${filename}”; “awk '{print $0}' ${filename}”等需要等待用户输入下一步指令的shell命令时,日志将卡到部署中,直到超时。 原因分析 由

    来自:帮助中心

    查看更多 →

  • 使用Kafka Shell命令无法操作Kafka集群

    使用Kafka Shell命令无法操作Kafka集群 问题背景与现象 用户执行Kafka命令查看当前topic信息,但发现业务执行失败。 具体信息如下: root@Slave2bin]#./kafka-topics.sh --describe --topic example-metric1

    来自:帮助中心

    查看更多 →

  • 在ECS上调试好的shell脚本,在DLF中shell脚本执行异常,如何处理?

    在E CS 上调试好的shell脚本,在DLF中shell脚本执行异常,如何处理? 问题描述 在ECS上调试好的shell脚本,在DLF中shell脚本执行异常。 脚本内容是通过gsql连接dws查询某库表数据行数的。 ECS调试结果: DLF脚本运行结果: 图1 脚本运行结果 解决方案

    来自:帮助中心

    查看更多 →

  • 开源sqoop-shell工具使用示例(SFTP - HDFS)

    Manager,选择“系统 > 权限 > 域互信”,“本端域”参数即为当前系统 域名 。 表1 配置参数说明 配置参数 说明 示例 server.url Loader服务的浮动IP地址端口(21351)。 为了兼容性,此处支持配置多个IP地址端口,并以“,”进行分隔。其中第一个必须

    来自:帮助中心

    查看更多 →

  • 开源sqoop-shell工具使用示例(Oracle - HBase)

    Manager,选择“系统 > 权限 > 域互信”,“本端域”参数即为当前系统域名。 表1 配置参数说明 配置参数 说明 示例 server.url Loader服务的浮动IP地址端口(21351)。 为了兼容性,此处支持配置多个IP地址端口,并以“,”进行分隔。其中第一个必须

    来自:帮助中心

    查看更多 →

  • 使用sqoop-shell工具导入数据到HDFS

    Manager,选择“系统 > 权限 > 域互信”,“本端域”参数即为当前系统域名。 表1 配置参数说明 配置参数 说明 示例 server.url Loader服务的浮动IP地址端口(21351)。 为了兼容性,此处支持配置多个IP地址端口,并以“,”进行分隔。其中第一个必须

    来自:帮助中心

    查看更多 →

  • 使用sqoop-shell工具导入数据到HBase

    Manager,选择“系统 > 权限 > 域互信”,“本端域”参数即为当前系统域名。 表1 配置参数说明 配置参数 说明 示例 server.url Loader服务的浮动IP地址端口(21351)。 为了兼容性,此处支持配置多个IP地址端口,并以“,”进行分隔。其中第一个必须

    来自:帮助中心

    查看更多 →

  • 部署“执行shell命令”步骤,提示新建失败

    部署“执行shell命令”步骤,提示新建失败 问题现象 在部署步骤时,提示“新建失败”。 原因分析 文本框中输入的部分命令,被云防火墙拦截,导致新建应用失败,以Shell命令为例: 1 2 3 4 5 6 cat /etc/hosts cat /etc/passwd cat /etc/shadow

    来自:帮助中心

    查看更多 →

  • 使用Cloud Shell调试生产训练作业

    Shell界面提示如下。 图1 Cloud Shell界面 当作业处于非运行状态或权限不足时会导致无法使用Cloud Shell,请根据提示定位原因即可。 图2 报错提示 部分用户登录Cloud Shell界面时,可能会出现路径显示异常情况,此时在Cloud Shell中单击回车键即可恢复正常。 图3

    来自:帮助中心

    查看更多 →

  • 如何配置Kafka客户端shell命令日志

    如何配置Kafka客户端shell命令日志 用户问题 如何设置客户端shell命令的日志输出级别? 处理步骤 以客户端安装用户,登录安装Kafka客户端的节点。 切换到Kafka客户端安装目录,例如“/opt/client”。 cd /opt/client 切换到Kafka客户端配置目录。

    来自:帮助中心

    查看更多 →

  • 通过Mongo Shell连接集群实例(内网连接)

    户端。 已确保 弹性云服务器 DDS实例实现网络互通,详情请参见设置安全组规则。 SSL连接 使用SSL方式连接,请务必开启SSL连接,否则会报错。关于如何开启SSL连接,请参见开启关闭SSL连接。 登录管理控制台。 单击管理控制台左上方的,选择区域项目。 在页面左上角单击,选择“数据库

    来自:帮助中心

    查看更多 →

  • 通过Mongo Shell连接集群实例(公网连接)

    ongo Shell通过公网方式连接集群实例。 连接集群实例的方式有SSL连接非SSL连接两种方法,其中SSL连接通过了加密功能,具有更高的安全性。为了提升数据在网络传输过程中的安全性,建议采用SSL方式。 前提条件 创建并登录弹性 云服务器 ,请参见购买弹性云 服务器 登录弹性云服务器。

    来自:帮助中心

    查看更多 →

  • 通过Mongo Shell连接集群实例(内网连接)

    户端。 已确保弹性云服务器DDS实例实现网络互通,详情请参见设置安全组规则。 SSL连接 使用SSL方式连接,请务必开启SSL连接,否则会报错。关于如何开启SSL连接,请参见开启关闭SSL连接。 登录管理控制台。 单击管理控制台左上方的,选择区域项目。 在页面左上角单击,选择“数据库

    来自:帮助中心

    查看更多 →

  • 通过Mongo Shell连接集群实例(公网连接)

    ongo Shell通过公网方式连接集群实例。 连接集群实例的方式有SSL连接非SSL连接两种方法,其中SSL连接通过了加密功能,具有更高的安全性。为了提升数据在网络传输过程中的安全性,建议采用SSL方式。 前提条件 创建并登录弹性云服务器,请参见购买弹性云服务器登录弹性云服务器。

    来自:帮助中心

    查看更多 →

  • Shell客户端连接提示“authentication failed”

    Shell客户端连接提示“authentication failed” 问题现象 安全集群中,HiveServer服务正常的情况下,Shell客户端中执行beeline命令失败,界面提示“authentication failed”,如下: Debug is true storeKey

    来自:帮助中心

    查看更多 →

  • 使用了服务器未识别的Shell命令

    使用了服务器未识别的Shell命令 机器上没有安装Docker 问题现象 部署Shell命令:“docker version”(假设主机没有安装Docker服务),日志信息提示部署失败。 原因分析 由于机器上没有安装Docker服务导致。 处理方法 在机器上安装对应的服务再次运行即可。

    来自:帮助中心

    查看更多 →

  • Shell命令如何引用参数设置中的参数

    Shell命令如何引用参数设置中的参数 操作步骤如下: 在参数设置中添加需要用到的参数。 在执行Shell命令窗口使用“${}”引用该参数。 查看部署结果。 父主题: 执行shell命令

    来自:帮助中心

    查看更多 →

  • 使用执行shell脚本创建并部署通用应用

    使用执行shell脚本创建并部署通用应用 基于执行shell脚本实现通用的应用部署。 该模板涉及的部署步骤如下所示: 下载软件包 执行部署脚本 健康测试 该模板需要填写的参数如表1所示。 表1 模板参数说明 参数 说明 host_group 该应用部署的目标环境。 package_url

    来自:帮助中心

    查看更多 →

  • 通过Mongo Shell连接副本集实例(内网连接)

    您需要先下载安装MongoDB客户端,再使用Mongo Shell连接数据库实例。 DDS实例默认提供内网IP地址,当应用部署在弹性云服务器上,且该弹性云服务器与文档数据库实例处于同一区域,同一VPC时,可以使用内网连接文档数据库实例,该方式可以获得更快的传输速率更高的安全性。

    来自:帮助中心

    查看更多 →

  • 为什么在Spark Shell中不能执行更新命令?

    为什么在Spark Shell中不能执行更新命令? 问题 为什么在Spark Shell中不能执行更新命令? 回答 本文档中给出的语法示例是关于Beeline的命令,而不是Spark Shell中的命令。 如果要在Spark Shell中使用更新命令,可以使用以下语法。 语法1

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了