弹性云服务器 ECS

 

弹性云服务器(Elastic Cloud Server)是一种可随时自助获取、可弹性伸缩的云服务器,帮助用户打造可靠、安全、灵活、高效的应用环境,确保服务持久稳定运行,提升运维效率

 
 

    客户端数据自动上传到服务器 更多内容
  • 配置Redis SSL数据加密传输

    nly为no)的实例,数据将清空,实例正在执行的备份任务会被停止,请谨慎操作。 开启SSL后,实例的读写性能会有所下降。 开启SSL功能后,单击“下载证书”,下载SSL证书。 解压SSL证书,将解压后的“ca.crt”文件上传到Redis客户端所在的 服务器 。 在连接实例的命令中配置“ca

    来自:帮助中心

    查看更多 →

  • 使用MySQL命令行公网连接实例

    登录E CS 实例,请参见《弹性云服务器用户指南》中“SSH密码方式登录”。 在RDS“实例管理”页面,单击实例名称进入“概览”页面。 选择“连接管理”,在“连接信息”模块获取实例的公网地址和数据库端口。 图4 连接信息 如果没有绑定公网地址,请参见绑定弹性公网IP。 在ECS测试是否可以正常连接到RDS

    来自:帮助中心

    查看更多 →

  • 前提概要

    P则作为边缘服务器的节点IP地址。 在IoTEdge注册节点:在购买的ECS执行安装脚本命令,即自动部署好2个系统应用,agent用于节点应用管理,hub用于数据通信。 进程包插件:是集成了边缘SDK的应用程序打包而成,可作为边缘节点的自定义应用部署到边缘服务器,以进程方式

    来自:帮助中心

    查看更多 →

  • 通过数据文件备份恢复ClickHouse数据

    csv 将导出的csv数据文件上传至备份服务器。 恢复数据 将备份服务器的备份数据文件上传到ClickHouse客户端所在目录。 例如,上传default_test.csv备份文件到:/opt/clickhouse目录下。 以客户端安装用户,登录安装客户端的节点。 执行以下命令,切换到客户端安装目录。

    来自:帮助中心

    查看更多 →

  • 通过数据文件备份恢复ClickHouse数据

    csv 将导出的csv数据文件上传至备份服务器。 恢复数据 将备份服务器的备份数据文件上传到ClickHouse客户端所在目录。 例如,上传default_test.csv备份文件到:/opt/clickhouse目录下。 以客户端安装用户,登录安装客户端的节点。 执行以下命令,切换到客户端安装目录。

    来自:帮助中心

    查看更多 →

  • 约束与限制

    网关物理机部署模式下只支持部署在华为TaiShan 200 (Model 2280)物理服务器,虚拟机部署模式支持VMware ESXi 5.5及以上版本。 每个网关只支持配置一个缓存盘,且不支持扩容。 此处的“一个缓存盘”是逻辑的概念,并非指一个实际的物理磁盘。这个缓存盘要求是具备冗余的RAID

    来自:帮助中心

    查看更多 →

  • 使用gsql连接

    ession_timeout的默认值自动断开连接。如果要关闭超时设置,设置GUC参数session_timeout为0即可。 前提条件 已联系管理员获取连接信息。 远程连接数据库 完成远程连接配置,请联系管理员处理。 在客户端机器,上传客户端工具包并配置gsql的执行环境变量。此处以openEuler环境为例。

    来自:帮助中心

    查看更多 →

  • 系统配置

    以通过代理服务器访问OBS。 地址:代理服务器地址。 端口:代理服务器端口(默认为“8080”)。 单击“其他”,根据需要设置其他配置参数,如图3所示。 图3 其他配置 表3 其他参数 参数 说明 自动检测软件新版本 勾选后,每次登录OBS Browser时,都会自动检查软件当前版本是否为最新版本。

    来自:帮助中心

    查看更多 →

  • 通过内网连接RDS for PostgreSQL实例(Linux方式)

    步骤2:测试连通性并安装PostgreSQL客户端 登录ECS实例,请参见《 弹性云服务器 用户指南》中“Linux弹性 云服务器 远程登录(VNC方式)”。 在RDS“实例管理”页面,单击实例名称进入“概览”页面。 选择“连接管理”,在“连接信息”模块获取实例的内网地址和数据库端口。 图4 连接信息 在ECS测试是否可以正常连接到RDS

    来自:帮助中心

    查看更多 →

  • Spark Streaming对接Kafka0-10样例程序开发思路

    conf 两个文件上传客户端所在服务器。 通过IDEA自带的Maven工具,打包项目,生成jar包。具体操作请参考在Linux环境中编包并运行Spark程序。 编译打包前,样例代码中的user.keytab、krb5.conf文件路径需要修改为该文件所在客户端服务器的实际路径。例如:“/opt/female/user

    来自:帮助中心

    查看更多 →

  • 通过公网连接RDS for PostgreSQL实例(Linux方式)

    图6 RDS的安全组 打开客户端安装页面。 PostgreSQL官网提供了针对不同操作系统的客户端安装方法。 下面将以CentOS下PostgreSQL 12版本为例,介绍安装PostgreSQL客户端。 选择数据库版本、操作系统、操作系统架构,在弹性云服务器执行以下命令安装PostgreSQL客户端。

    来自:帮助中心

    查看更多 →

  • 自动生成测试数据(不再推广)

    > 自动生成测试数据”,打开自动生成测试数据页面。 在“自动生成测试数据”页面,单击“新建任务”。 图1 新建自动测试任务 设置测试数据生成任务信息。 图2 编辑任务信息 生成行数 生成测试数据的行数,最大支持100万。 冲突处理 设置成“遇到数据冲突则跳过”,即数据冲突时可继续

    来自:帮助中心

    查看更多 →

  • 配置自动巡检(V3.3.36.0以及上版本支持)

    配置自动巡检(V3.3.36.0以及版本支持) 开启自动巡检后,系统将在每月5日、15日、25日凌晨01:00时自动对资源账户进行验证。 前提条件 用户已获取“系统”模块管理权限。 操作步骤 登录 堡垒机 系统。 选择“系统 > 系统配置 > 安全配置”,进入系统安全配置管理页面。

    来自:帮助中心

    查看更多 →

  • 升级网关

    软件包下载中 自动下载最新版本网关。 软件包下载完成 下载最新版本软件包到本地客户端。 升级前准备 停止共享 网关升级过程文件共享将会出现短暂中断,为避免数据丢失,后台将暂时关闭读/写权限,停止文件共享。 待云文件:[n]个 缓存盘中待云文件数,文件需全部上传到OBS桶才能升级网关。

    来自:帮助中心

    查看更多 →

  • 添加HTTPS监听器

    的默认后端服务器组。 推荐选择“使用已有”后端服务器组,您可参考创建后端服务器组进行创建。 您也可选择“新创建”后端服务器组,添加后端服务器并配置健康检查, 配置后端服务器组参数请参见表3。 单击“下一步:添加后端服务器”,添加后端服务器并配置健康检查。 添加后端服务器详见后端服务器概述,配置健康检查参数请参见表4。

    来自:帮助中心

    查看更多 →

  • 自动生成测试数据(不再推广)

    在顶部菜单栏选择“数据方案”>“自动生成测试数据”打开自动生成测试数据页面。 在“自动生成测试数据”页面,单击“新建任务”。 图1 新建自动测试任务 在新建测试数据生成任务弹出窗口,编辑任务信息。 图2 编辑任务信息 生成行数 生成测试数据的行数,最大支持100万。 冲突处理 设置成“遇到数据冲突则跳过”,

    来自:帮助中心

    查看更多 →

  • 入门指引

    云容灾网关将生产站点所有被容灾的服务器数据进行汇聚和压缩加密,并同步到容灾站点。 下载并安装代理客户端 代理客户端将所在服务器数据传输到云容灾网关。 创建保护实例 保护实例是一对拥有复制关系的服务器。系统会自动识别已安装代理客户端的生产站点服务器,选择需要进行容灾的生产站点服务器为其创建保护

    来自:帮助中心

    查看更多 →

  • Rsync迁移SFS实施步骤

    Linux或macOS系统可配置crontab向云NAS自动备份数据。 上传下载后的文件元数据不变(包括属主及权限信息)。 支持数据增量同步。 适用大量文件上传和下载或需要频繁上传和下载的任务。 使用Robocopy工具迁移数据 Windows自带工具。 支持多线程、断点续传。

    来自:帮助中心

    查看更多 →

  • 我对存储在OBS上的数据加密时,可支持哪些加密技术?

    我对存储在OBS数据加密时,可支持哪些加密技术? 您在将数据传到OBS中前,可以事先对数据进行加密,以保证传输和保存的安全性。OBS不限定客户端加密的技术。 用户可根据需要对对象进行服务端加密,使对象更安全的存储在OBS中。 需要上传的对象可以通过数据加密服务器提供密钥的方式

    来自:帮助中心

    查看更多 →

  • Spark Streaming对接Kafka0-10样例程序开发思路

    HDFS的路径,<brokers>指获取元数据的Kafka地址,<topic>指读取Kafka的topic名称,<batchTime>指Streaming分批的处理间隔。 由于Spark Streaming Kafka的依赖包在客户端的存放路径与其他依赖包不同,如其他依赖包路径

    来自:帮助中心

    查看更多 →

  • 通过mongoexport和mongoimport工具迁移数据

    Mongo 数据库绑定的公网地址。 在已准备的弹性云服务器或可访问GeminiDB Mongo 数据库的设备,安装数据迁移工具。 安装数据迁移工具,请参见如何安装MongoDB客户端。 MongoDB客户端会自带mongoexport和mongoimport工具。 导出源库数据 登录

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了