playbook shell 更多内容
  • HDFS Shell命令介绍

    HDFS Shell命令介绍 HDFS Shell 您可以使用HDFS Shell命令对HDFS文件系统进行操作,例如读文件、写文件等操作。 执行HDFS Shell的方法: 进入HDFS客户端如下目录,直接输入命令即可。例如: cd /opt/client/HDFS/hadoop/bin

    来自:帮助中心

    查看更多 →

  • Oozie Shell接口介绍

    Oozie Shell接口介绍 表1 接口参数说明 命令 参数 含义 oozie version 无 显示oozie版本信息 oozie job -config <arg> 指定job配置文件(job.properties)路径 -oozie <arg> 指定oozie server地址

    来自:帮助中心

    查看更多 →

  • HBase Shell接口介绍

    HBase Shell接口介绍 您可以使用Shell在服务端直接对HBase进行操作。HBase的Shell接口同开源社区版本保持一致,请参见http://learnhbase.wordpress.com/2013/03/02/hbase-shell-commands/ Shell命令执行方法:

    来自:帮助中心

    查看更多 →

  • 部署Kubernetes集群

    name: shell : sysctl --system - name: config limit copy: src=/etc/ansible/limits.conf dest=/etc/security/limits.conf 执行 ansible-playbook sysctl_config

    来自:帮助中心

    查看更多 →

  • 执行shell命令

    执行shell命令 部署“执行shell命令”步骤,提示新建失败 使用Shell命令启动服务日志显示成功实际没有启动 使用了 服务器 未识别的Shell命令 Shell命令中引用了不存在的文件或文件夹 Shell命令如何引用参数设置中的参数 部署“执行Shell命令”步骤超时 使用了交互性的Shell命令

    来自:帮助中心

    查看更多 →

  • 使用shell命令构建

    使用shell命令构建 单独使用“执行shell命令”步骤可以创建一个构建任务并执行构建。也可以和其他构建工具组合使用,比如,在Maven构建中,增加“执行shell命令”步骤,用于创建后续构建过程中需要使用的文件。 图形化构建 在配置构建步骤中,添加“执行shell命令”构建步骤,参考表1配置参数。

    来自:帮助中心

    查看更多 →

  • Kafka Shell命令介绍

    Kafka Shell命令介绍 查看当前集群Topic列表。 shkafka-topics.sh --list --zookeeper <ZooKeeper集群IP:2181/kafka> shkafka-topics.sh --list --bootstrap-server <Kafka集群IP:21007>

    来自:帮助中心

    查看更多 →

  • Kafka Shell命令介绍

    Kafka Shell命令介绍 查看当前集群Topic列表。 shkafka-topics.sh --list --zookeeper <ZooKeeper集群IP:2181/kafka> shkafka-topics.sh --list --bootstrap-server <Kafka集群IP:21007>

    来自:帮助中心

    查看更多 →

  • Oozie Shell接口介绍

    Oozie Shell接口介绍 表1 接口参数说明 命令 参数 含义 oozie version 无 显示Oozie版本信息 oozie job -config <arg> 指定job配置文件(job.properties)路径 -oozie <arg> 指定oozie server地址

    来自:帮助中心

    查看更多 →

  • HBase Shell接口介绍

    HBase Shell接口介绍 您可以使用Shell在服务端直接对HBase进行操作。HBase的Shell接口同开源社区版本保持一致,请参见http://learnhbase.wordpress.com/2013/03/02/hbase-shell-commands/ Shell命令执行方法:

    来自:帮助中心

    查看更多 →

  • 执行shell命令

    对象。 shell命令 待执行的bash脚本。 控制选项 配置是否启用该操作。 当前步骤执行失败后,应用是否继续执行后续的步骤。 配置是否使用sudo权限执行该步骤。 示例:通过shell命令步骤查看服务日志 应用部署完毕需要查看服务的启动或执行日志,可使用执行shell命令操作直接查看。

    来自:帮助中心

    查看更多 →

  • HBase Shell命令简介

    HBase Shell命令简介 本节介绍常用的HBase Shell命令。 启动HBase shell。 进入HBase目录下执行如下命令,进入HBase shell。 ./bin/hbase shell 获取帮助。 在HBase shell执行“help”命令,将会返回所有命令信息,以及基本命令的说明和使用方法。

    来自:帮助中心

    查看更多 →

  • Ansible

    码,导致其它相关应用执行失败。 选择playbook文件 可以选择制品仓库已有playbook文件,也可以选择本地上传的playbook文件。 说明: 本地上传的软件包/文件会上传到制品仓库,可以重复使用。 入口执行文件路径 playbook入口执行文件的路径。 控制选项 配置是否启用该操作。

    来自:帮助中心

    查看更多 →

  • Ansible应用部署失败

    error”。 原因分析 由于下载到的playbook压缩包过大,或者压缩包中文件过多(文件数超过1024个)。 处理办法 重新构建playbook包,保证playbook压缩包中只包含playbook脚本不包含业务代码。 拆分代码仓,将playbook代码与业务代码拆分。 利用构建将

    来自:帮助中心

    查看更多 →

  • 使用HBase Shell访问集群

    quick_start_hbase_shell.sh $zookeeper_address 启动Shell访问集群。 在上一步执行source命令自动部署客户端后,就已自动启动了HBase Shell。在后续使用过程中,您也可以执行“bin/hbase shell”命令启动Shell访问集群。 手动安装客户端

    来自:帮助中心

    查看更多 →

  • 创建剧本版本

    /soc/playbooks/{playbook_id}/versions 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 项目ID workspace_id 是 String 工作空间ID playbook_id 是 String 剧本ID

    来自:帮助中心

    查看更多 →

  • 剧本运行监控

    PlaybookInstanceRunStatistics 参数 参数类型 描述 playbook_instance_id String 剧本实例ID playbook_instance_name String 剧本实例名称 playbook_instance_run_time Number 剧本实例运行时间

    来自:帮助中心

    查看更多 →

  • 连接impala-shell失败

    连接impala-shell失败 用户问题 用户连接impala-shell失败。 问题现象 用户在“组件管理”页面修改任意组件的配置并重启服务后,连接impala-shell,会出现连接失败,报错no such file/directory。 原因分析 修改服务配置并重启服务后

    来自:帮助中心

    查看更多 →

  • 安全云脑 SecMaster

    条件键 secmaster:playbook:get 授予权限获取剧本详情。 read playbook * - secmaster:playbook:create 授予权限创建剧本。 write playbook * - secmaster:playbook:delete 授予权限删除剧本。

    来自:帮助中心

    查看更多 →

  • 使用Hue提交Oozie Shell作业

    使用Hue提交Oozie Shell作业 操作场景 该任务指导用户通过Hue界面提交Shell类型的Oozie作业。 操作步骤 创建工作流,请参考使用Hue创建工作流。 在工作流编辑页面,选择“Shell”按钮,将其拖到操作区中。 在弹出的“Shell”窗口中配置“Shell command”的值,例如“oozie_shell

    来自:帮助中心

    查看更多 →

  • 使用Spark Shell创建Hudi表

    使用Spark Shell创建Hudi表 操作场景 本指南通过使用spark-shell简要介绍了Hudi功能。使用Spark数据源,将通过代码段展示如何插入和更新Hudi的默认存储类型数据集: COW表。每次写操作之后,还将展示如何读取快照和增量数据。 前提条件 在Manage

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了