弹性云服务器 ECS

 

弹性云服务器(Elastic Cloud Server)是一种可随时自助获取、可弹性伸缩的云服务器,帮助用户打造可靠、安全、灵活、高效的应用环境,确保服务持久稳定运行,提升运维效率

 
 

    从服务器拷贝文件 更多内容
  • 文件备份

    文件备份 文件备份概述 文件备份操作流程 创建混合云备份存储库 下载和安装客户端 配置文件备份存储库 新增备份目录 创建文件备份 使用文件备份恢复数据 卸载客户端 客户端故障案例

    来自:帮助中心

    查看更多 →

  • 在Linux中调测Hive JDBC应用

    将1导出的hive-examples-1.0.jar拷贝到“/opt/hive_examples”下。 将客户端下的配置文件拷贝到“conf”下,开启Kerberos认证的安全集群下把5获取的user.keytab和krb5.conf拷贝到的/opt/hive_examples/co

    来自:帮助中心

    查看更多 →

  • 恢复到新系统

    恢复到新系统 生产系统刷机到开发/测试系统,以及容灾场景使用备份文件恢复备机等场景,我们需要使用OBS的备份恢复到新的系统。常规做法是,手工拷贝OBS的备份文件到新系统的本地路径,然后再执行恢复操作。这种方式虽然简单,但当备份文件很大、数量很多时,既占用本地存储空间,也十分耗时

    来自:帮助中心

    查看更多 →

  • 恢复DBService数据

    Manager创建恢复DBService任务。只支持创建任务手动恢复数据。 只支持进行数据备份时的系统版本与当前系统版本一致时的数据恢复。 当业务正常时需要恢复数据,建议手动备份最新管理数据后,再执行恢复数据操作。否则会丢失备份时刻到恢复时刻之间的DBService数据。 MRS 集群中默认使用DB

    来自:帮助中心

    查看更多 →

  • 如何从沙箱中恢复重要文件和文档到本地?

    如何沙箱中恢复重要文件和文档到本地? 前提条件 管理员发布沙箱控制台应用到应用组。 用户登录客户端,在应用列表页面单击打开Sandboxie Control控制中心,弹出“Sandboxie Control”控制台。 在Sandboxie Control控制台选择需要恢复文件的沙盒,右键单击沙盒名,选择“快速恢复”。

    来自:帮助中心

    查看更多 →

  • 典型场景:从HDFS/OBS导出数据到SFTP服务器

    典型场景:HDFS/OBS导出数据到SFTP 服务器 操作场景 该任务指导用户使用Loader将数据HDFS/OBS导出到SFTP服务器。 前提条件 创建或获取该任务中创建Loader作业的业务用户和密码。 确保用户已授权访问作业执行时操作的HDFS/OBS目录和数据。 获取S

    来自:帮助中心

    查看更多 →

  • SMS.3205 挂载分区XXX到目录XXX失败

    持的Linux文件系统类型包括:ext2,ext3、ext4、xfs、vfat、btrfs。reiserfs等文件系统暂不支持。 对于不支持的文件系统,可以将文件拷贝到其他文件系统,然后卸载不支持的文件系统后再进行迁移。 如果源端服务器不方便上述操作,您可以采用以下方式: 使用镜

    来自:帮助中心

    查看更多 →

  • CentOS云服务器根目录设置成777权限怎么办?

    或在故障云服务器上执行以下命令,临时云服务器上下载systemp.bak文件到故障云服务器。 scp 用户名@弹性公网IP:临时云服务器systemp.bak文件地址 故障云服务器文件地址 例如:scp root@121.**.**.**:/systemp.bak / 在故障云服务器

    来自:帮助中心

    查看更多 →

  • 加载Impala数据

    加载Impala数据 功能简介 本小节介绍了如何使用Impala SQL向已有的表employees_info中加载数据。本节中可以掌握如何集群中加载数据。 样例代码 -- 本地文件系统/opt/impala_examples_data/目录下将employee_info.txt加载进employees_info表中

    来自:帮助中心

    查看更多 →

  • 使用流程

    接收设备并连线配置 用户收到华为数据中心Teleport设备后开箱配置。 拷贝数据 用户将本地数据拷贝至Teleport存储系统。 下载并导入签名文件 签名文件是服务单中Teleport设备的唯一标识,Teleport设备回寄前需要将签名文件存入teleportshare根目录。 设备下电和封装

    来自:帮助中心

    查看更多 →

  • 调测Kafka应用

    前提条件 客户端本地能登录MRS服务的弹性云服务器,登录方式详见“弹性云服务器《用户指南》”中“入门 > 登录弹性云服务器”的SSH登录方式。 样例工程在已经通过Maven编译。 示例:Maven工程打包到Linux下运行样例 执行mvn package生成jar包,在工程目录targ

    来自:帮助中心

    查看更多 →

  • 恢复Manager数据

    法访问。 Manager数据恢复后,会丢失备份时刻到恢复时刻之间的数据,例如系统设置、用户信息、告警信息或审计信息。可能导致无法查询到数据,或者某个用户无法访问集群。 Manager数据恢复后,系统将强制各集群的LdapServerOLadp同步一次数据。 前提条件 如果需要

    来自:帮助中心

    查看更多 →

  • 从备份恢复磁盘

    从备份恢复磁盘。URI格式POST /v2/{project_id}/cloudbackups/{backup_id}/restorePOST /v2/{project_id}/cloudbackups/{backup_id}/restore参数说明参数是否必选描述project_id是项目ID。获取项目ID方法请参考 获取项目IDb

    来自:帮助中心

    查看更多 →

  • 使用distcp命令跨集群复制HDFS数据

    -numListstatusThreads指定了40个构建被拷贝文件的列表的线程数; -update -delete表示将源位置和目标位置的文件同步,删除掉目标位置多余的文件,注意如果需要增量拷贝文件,请将-delete删掉; -prbugpaxtq与-update配合,表示被拷贝文件的状态信息也会被更新; hd

    来自:帮助中心

    查看更多 →

  • 文件错误导致上传文件到HDFS失败

    文件错误导致上传文件到HDFS失败 问题背景与现象 用hadoop dfs -put把本地文件拷贝到HDFS上,有报错。 上传部分文件后,报错失败,NameNode原生页面看,临时文件大小不再变化。 原因分析 查看NameNode日志“/var/log/Bigdata/hdfs

    来自:帮助中心

    查看更多 →

  • 使用Loader从Hive导出数据到SFTP服务器

    使用LoaderHive导出数据到SFTP服务器 操作场景 该任务指导用户使用Loader将数据Hive导出到SFTP服务器。 前提条件 创建或获取该任务中创建Loader作业的业务用户和密码。 确保用户已授权访问作业中指定的Hive表的权限。 获取SFTP服务器使用的用户和密

    来自:帮助中心

    查看更多 →

  • 使用distcp命令跨集群复制HDFS数据

    -numListstatusThreads指定了40个构建被拷贝文件的列表的线程数; -update -delete表示将源位置和目标位置的文件同步,删除掉目标位置多余的文件,注意如果需要增量拷贝文件,请将-delete删掉; -prbugpaxtq与-update配合,表示被拷贝文件的状态信息也会被更新; hd

    来自:帮助中心

    查看更多 →

  • 使用gsql元命令\COPY导入数据

    col_2 text, col_3 varchar(12), col_4 date, col_5 time ); 示例一:stdin拷贝数据到目标表copy_example。 1 \copy copy_example from stdin csv; 出现>>符号提示时,输入数据,输入\

    来自:帮助中心

    查看更多 →

  • 复制文件或文件夹

    复制文件文件夹 用户可根据需要将存储在OBS上的文件文件复制到其他路径下。 操作步骤 登录OBS Browser+。 选中待配置的桶,右键单击需要复制文件文件夹,并选择“复制”。 选择存放文件文件夹的路径后,单击右键并选择“粘贴”。 不支持复制外部桶中的文件文件夹。

    来自:帮助中心

    查看更多 →

  • 解绑密钥对

    私钥。单击“选择文件”,上传现有密钥对的私钥(“.pem”格式),或者将私钥拷贝至文本框中。如果在弹性云服务器处于“关机”状态,请跳过此步骤。 上传或者拷贝至文本框的私钥必须是“.pem”格式文件,如果是“.ppk”格式文件,请参考如何将“.ppk”格式的私钥文件转化为“.pem”格式进行转换。

    来自:帮助中心

    查看更多 →

  • gh-ost工具

    gh-ost三种模式架构 连接库,在主库转换(默认) 在主库创建和原表结构相同的_xxx_gho表,和变更记录日志文件_xxx_ghc表,用来写入Online-DDL的进度以及时间。 修改_xxx_gho表的结构。 在主库上拷贝已有的数据到_xxx_gho。 备库上获取增量Binlog,完成增量数据的变更。

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了