ansible-playbook 执行shell脚本 更多内容
  • 用户自己注册shell命令导致shell任务栈溢出

    原因:用户在使用或者测试时,有时会通过增加一个 shell 命令去执行,由于系统配置的 shell 任务栈不是很大,因此如果用户将所有操作都放在 shell 命令中直接执行,很容易造成 shell 任务栈溢出。解决方案:此种情况下用户可在 shell 命令入口函数中创建任务来执行自己的实际操作。

    来自:帮助中心

    查看更多 →

  • 键绑定和shell

    键绑定和shell 当Terminal视图聚焦时,许多CodeArts IDE键绑定将不起作用,因为击键将传递到终端本身并由终端本身消耗。有一个预定义的命令列表,这些命令跳过shell处理,而是发送到CodeArts IDE密钥绑定系统。您可以使用terminal.integrated

    来自:帮助中心

    查看更多 →

  • HDFS Shell命令介绍

    HDFS Shell命令介绍 HDFS Shell 您可以使用HDFS Shell命令对HDFS文件系统进行操作,例如读文件、写文件等操作。 执行HDFS Shell的方法: 进入HDFS客户端如下目录,直接输入命令即可。例如: cd /opt/client/HDFS/hadoop/bin

    来自:帮助中心

    查看更多 →

  • Oozie Shell接口介绍

    Oozie Shell接口介绍 表1 接口参数说明 命令 参数 含义 oozie version 无 显示oozie版本信息 oozie job -config <arg> 指定job配置文件(job.properties)路径 -oozie <arg> 指定oozie server地址

    来自:帮助中心

    查看更多 →

  • Kafka Shell命令介绍

    Kafka Shell命令介绍 前提条件 Kafka的Linux客户端已安装。安装方法可参考安装客户端。 常用的Shell命令指南 Shell命令执行方法: 进入Kafka客户端任意目录。 初始化环境变量。 source /opt/client/bigdata_env 如果当前集

    来自:帮助中心

    查看更多 →

  • HDFS Shell命令介绍

    HDFS Shell命令介绍 HDFS Shell 您可以使用HDFS Shell命令对HDFS文件系统进行操作,例如读文件、写文件等操作。 执行HDFS Shell的方法: 进入HDFS客户端如下目录,直接输入命令即可。例如: cd /opt/client/HDFS/hadoop/bin

    来自:帮助中心

    查看更多 →

  • HBase Shell接口介绍

    HBase Shell接口介绍 您可以使用Shell在服务端直接对HBase进行操作。HBase的Shell接口同开源社区版本保持一致,请参见http://learnhbase.wordpress.com/2013/03/02/hbase-shell-commands/ Shell命令执行方法:

    来自:帮助中心

    查看更多 →

  • Kafka Shell命令介绍

    Kafka Shell命令介绍 查看当前集群Topic列表。 bin/kafka-topics.sh --list --zookeeper <ZooKeeper集群IP:2181/kafka> bin/kafka-topics.sh --list --bootstrap-server

    来自:帮助中心

    查看更多 →

  • HDFS Shell命令介绍

    HDFS Shell命令介绍 HDFS Shell 您可以使用HDFS Shell命令对HDFS文件系统进行操作,例如读文件、写文件等操作。 执行HDFS Shell的方法: 进入HDFS客户端如下目录,直接输入命令即可。例如: cd /opt/client/HDFS/hadoop/bin

    来自:帮助中心

    查看更多 →

  • Kafka Shell命令介绍

    Kafka Shell命令介绍 查看当前集群Topic列表。 bin/kafka-topics.sh --list --zookeeper <ZooKeeper集群IP:2181/kafka> bin/kafka-topics.sh --list --bootstrap-server

    来自:帮助中心

    查看更多 →

  • 使用shell命令构建

    使用shell命令构建 单独使用“执行shell命令”步骤可以创建一个构建任务并执行构建。也可以和其他构建工具组合使用,比如,在Maven构建中,增加“执行shell命令”步骤,用于创建后续构建过程中需要使用的文件。 图形化构建 在配置构建步骤中,添加“执行shell命令”构建步骤,参考表1配置参数。

    来自:帮助中心

    查看更多 →

  • Kafka Shell命令介绍

    <Kafka集群IP:21007> --consumer.config config/consumer.properties Shell命令需要在目录“客户端安装目录/Kafka/kafka/bin”下执行。 凡可指定“ * ”值以代表all value,且格式为“--参数 参数值”, 例如: --group

    来自:帮助中心

    查看更多 →

  • Kafka Shell命令介绍

    <Kafka集群IP:21007> --consumer.config config/consumer.properties Shell命令需要在目录“客户端安装目录/Kafka/kafka/bin”下执行。 凡可指定“ * ”值以代表all value,且格式为“--参数 参数值”, 例如: --group

    来自:帮助中心

    查看更多 →

  • Oozie Shell接口介绍

    Oozie Shell接口介绍 表1 接口参数说明 命令 参数 含义 oozie version 无 显示Oozie版本信息 oozie job -config <arg> 指定job配置文件(job.properties)路径 -oozie <arg> 指定oozie server地址

    来自:帮助中心

    查看更多 →

  • HBase Shell接口介绍

    HBase Shell接口介绍 您可以使用Shell在服务端直接对HBase进行操作。HBase的Shell接口同开源社区版本保持一致,请参见http://learnhbase.wordpress.com/2013/03/02/hbase-shell-commands/ Shell命令执行方法:

    来自:帮助中心

    查看更多 →

  • HBase Shell命令简介

    HBase Shell命令简介 本节介绍常用的HBase Shell命令。 启动HBase shell。 进入HBase目录下执行如下命令,进入HBase shell。 ./bin/hbase shell 获取帮助。 在HBase shell执行“help”命令,将会返回所有命令信息,以及基本命令的说明和使用方法。

    来自:帮助中心

    查看更多 →

  • 主机连接参数说明

    些数据连接提交SQL脚本Shell脚本、Python脚本等任务的同时运行上限为200,超出的任务将排队等待。建议您按照业务量情况规划多个Agent分担压力。 在调度Shell、Python脚本时,Agent会访问E CS 主机,如果Shell、Python脚本的调度频率很高,ECS

    来自:帮助中心

    查看更多 →

  • 移动脚本/脚本目录

    在数据开发主界面的左侧导航栏,选择“数据开发 > 脚本开发”。 移动脚本脚本目录。 方式一:通过右键的“移动”功能。 在脚本目录中选择需要移动的脚本脚本文件夹,右键单击脚本脚本文件夹名称,选择“移动”。 图1 移动 在弹出的“移动脚本”或“移动目录”页面,配置如表1所示的参数。 图2 移动脚本 图3 移动目录

    来自:帮助中心

    查看更多 →

  • 模板管理

    模板管理 KooCLI提供由多条KooCLI命令组合而成的shell脚本模板,方便用户理清业务逻辑,完成复杂场景下的操作。用户可根据实际需要下载相应的模板,修改后执行即可。 可使用如下命令,进行模板的查看和下载操作。 查询已有模板列表: hcloud template list hcloud

    来自:帮助中心

    查看更多 →

  • 新建脚本

    选择目录 选择该脚本目录的父级目录,父级目录默认为根目录。 单击“确定”,新建目录。 新建脚本脚本目录中,右键单击目录名称,选择新建相应的脚本。 进入脚本开发页面,具体操作请参见开发SQL脚本、开发Shell脚本、开发Python脚本。 当前最多支持创建5个同类型的临时脚本。当关闭了

    来自:帮助中心

    查看更多 →

  • GDS导入数据时,脚本执行报错:out of memory

    GDS导入数据时,脚本执行报错:out of memory 问题现象 在使用GDS导入数据时,脚本执行报错“out of memory”。 原因分析 使用copy命令或者导入数据时,源数据单行数据的大小超过1GB。 由于源文件中的格式符不成对出现,比如引号,文件格式异常导致系统识别的单行数据过大超过1GB。

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了