弹性云服务器 ECS

 

弹性云服务器(Elastic Cloud Server)是一种可随时自助获取、可弹性伸缩的云服务器,帮助用户打造可靠、安全、灵活、高效的应用环境,确保服务持久稳定运行,提升运维效率

 
 

    从客户端到服务器 更多内容
  • 典型场景:从SFTP服务器导入数据到HBase

    典型场景:SFTP 服务器 导入数据HBase 操作场景 该任务指导用户使用Loader将数据SFTP服务器导入HBase。 前提条件 创建或获取该任务中创建Loader作业的业务用户和密码。 确保用户已授权访问作业执行时操作的HBase表或phoenix表。 获取SFTP服

    来自:帮助中心

    查看更多 →

  • 典型场景:从SFTP服务器导入数据到Hive

    典型场景:SFTP服务器导入数据Hive 操作场景 该任务指导用户使用Loader将数据SFTP服务器导入Hive。 前提条件 创建或获取该任务中创建Loader作业的业务用户和密码。 确保用户已授权访问作业中指定的Hive表的权限。 获取SFTP服务器使用的用户和密码,

    来自:帮助中心

    查看更多 →

  • 典型场景:从HBase导出数据到SFTP服务器

    典型场景:HBase导出数据SFTP服务器 操作场景 该任务指导用户使用Loader将数据HBase导出到SFTP服务器。 前提条件 创建或获取该任务中创建Loader作业的业务用户和密码。 确保用户已授权访问作业执行时操作的HBase表或phoenix表。 获取SFTP服

    来自:帮助中心

    查看更多 →

  • 典型场景:从FTP服务器导入数据到HBase

    典型场景:FTP服务器导入数据HBase 操作场景 该任务指导用户使用Loader将数据FTP服务器导入HBase。 前提条件 创建或获取该任务中创建Loader作业的业务用户和密码。 获取FTP服务器使用的用户和密码,且该用户具备FTP服务器上源文件的读取权限。若源文件

    来自:帮助中心

    查看更多 →

  • 典型场景:从Hive导出数据到SFTP服务器

    典型场景:Hive导出数据SFTP服务器 操作场景 该任务指导用户使用Loader将数据Hive导出到SFTP服务器。 前提条件 创建或获取该任务中创建Loader作业的业务用户和密码。 确保用户已授权访问作业中指定的Hive表的权限。 获取SFTP服务器使用的用户和密码,

    来自:帮助中心

    查看更多 →

  • 典型场景:从HDFS/OBS导出数据到SFTP服务器

    典型场景:HDFS/OBS导出数据SFTP服务器 操作场景 该任务指导用户使用Loader将数据HDFS/OBS导出到SFTP服务器。 前提条件 创建或获取该任务中创建Loader作业的业务用户和密码。 确保用户已授权访问作业执行时操作的HDFS/OBS目录和数据。 获取S

    来自:帮助中心

    查看更多 →

  • 典型场景:从SFTP服务器导入数据到HDFS/OBS

    典型场景:SFTP服务器导入数据HDFS/OBS 操作场景 该任务指导用户使用Loader将数据SFTP服务器导入HDFS/OBS。 前提条件 创建或获取该任务中创建Loader作业的业务用户和密码。 确保用户已授权访问作业执行时操作的HDFS/OBS目录和数据。 获取S

    来自:帮助中心

    查看更多 →

  • 从MRS导入数据到集群

    MRS 导入数据集群 MRS导入数据概述 MRS集群上的数据准备 手动创建外部服务器 创建外表 执行数据导入 清除资源 父主题: 导入数据

    来自:帮助中心

    查看更多 →

  • 使用Loader从SFTP服务器导入数据到HBase

    使用LoaderSFTP服务器导入数据HBase 操作场景 该任务指导用户使用Loader将数据SFTP服务器导入HBase。 前提条件 创建或获取该任务中创建Loader作业的业务用户和密码。 确保用户已授权访问作业执行时操作的HBase表或phoenix表。 获取SF

    来自:帮助中心

    查看更多 →

  • 使用Loader从FTP服务器导入数据到HBase

    使用LoaderFTP服务器导入数据HBase 操作场景 该任务指导用户使用Loader将数据FTP服务器导入HBase。 前提条件 创建或获取该任务中创建Loader作业的业务用户和密码。 获取FTP服务器使用的用户和密码,且该用户具备FTP服务器上源文件的读取权限。如

    来自:帮助中心

    查看更多 →

  • 使用Loader从HBase导出数据到SFTP服务器

    使用LoaderHBase导出数据SFTP服务器 操作场景 该任务指导用户使用Loader将数据HBase导出到SFTP服务器。 前提条件 创建或获取该任务中创建Loader作业的业务用户和密码。 确保用户已授权访问作业执行时操作的HBase表或phoenix表。 获取SF

    来自:帮助中心

    查看更多 →

  • 使用Loader从SFTP服务器导入数据到Hive

    使用LoaderSFTP服务器导入数据Hive 操作场景 该任务指导用户使用Loader将数据SFTP服务器导入Hive。 前提条件 创建或获取该任务中创建Loader作业的业务用户和密码。 确保用户已授权访问作业中指定的Hive表的权限。 获取SFTP服务器使用的用户和密

    来自:帮助中心

    查看更多 →

  • 使用Loader从Hive导出数据到SFTP服务器

    使用LoaderHive导出数据SFTP服务器 操作场景 该任务指导用户使用Loader将数据Hive导出到SFTP服务器。 前提条件 创建或获取该任务中创建Loader作业的业务用户和密码。 确保用户已授权访问作业中指定的Hive表的权限。 获取SFTP服务器使用的用户和密

    来自:帮助中心

    查看更多 →

  • 从Kafka读取数据写入到DWS

    Kafka读取数据写入DWS 本指导仅适用于Flink 1.12版本。 场景描述 该场景为对汽车驾驶的实时数据信息进行分析,将满足特定条件的数据结果进行汇总。汽车驾驶的实时数据信息为数据源发送到Kafka中,再将Kafka数据的分析结果输出到DWS中。 例如,输入如下样例数据:

    来自:帮助中心

    查看更多 →

  • 从Kafka读取数据写入到RDS

    Kafka读取数据写入RDS 本指导仅适用于Flink 1.12版本。 场景描述 该场景为根据商品的实时点击量,获取每小时内点击量最高的3个商品及其相关信息。商品的实时点击量数据为输入源发送到Kafka中,再将Kafka数据的分析结果输出到RDS中。 例如,输入如下样例数据:

    来自:帮助中心

    查看更多 →

  • 使用Loader从HDFS/OBS导出数据到SFTP服务器

    使用LoaderHDFS/OBS导出数据SFTP服务器 操作场景 该任务指导用户使用Loader将数据HDFS/OBS导出到SFTP服务器。 前提条件 创建或获取该任务中创建Loader作业的业务用户和密码。 确保用户已授权访问作业执行时操作的HDFS/OBS目录和数据。

    来自:帮助中心

    查看更多 →

  • 使用Loader从SFTP服务器导入数据到HDFS/OBS

    使用LoaderSFTP服务器导入数据HDFS/OBS 操作场景 该任务指导用户使用Loader将数据SFTP服务器导入HDFS/OBS。 前提条件 创建或获取该任务中创建Loader作业的业务用户和密码。 确保用户已授权访问作业执行时操作的HDFS/OBS目录和数据。

    来自:帮助中心

    查看更多 →

  • 使用GDS从远端服务器上导入表数据到GaussDB(DWS)集群

    使用GDS远端服务器上导入表数据 GaussDB (DWS)集群 教程指引 本教程旨在演示使用GDS(General Data Service)工具将远端服务器上的数据导入GaussDB(DWS)中的过程,帮助您学习如何通过GDS进行数据导入的方法。 GaussDB(DWS)支持

    来自:帮助中心

    查看更多 →

  • 从服务器共享空间删除应用

    服务器共享空间删除应用 当云手机服务器上的所有云手机均不再使用某一共享应用时,需要从云手机服务器的共享空间中删除该共享应用,以释放存储空间。 约束与限制 云手机服务器上所有云手机均已卸载该共享应用。 调用示例 DELETE "https://${CPH Endpoint}/v1

    来自:帮助中心

    查看更多 →

  • 使用CDL从Hudi同步数据到ClickHouse

    使用CDLHudi同步数据ClickHouse 操作场景 本章节指导用户通过MRS 3.2.0版本开启Kerberos认证的集群的CDLService WebUI界面,Hudi导入数据ClickHouse。 前提条件 集群已安装CDL、Hudi和ClickHouse服务且运行正常。

    来自:帮助中心

    查看更多 →

  • 从DLI导入表数据到GaussDB(DWS)集群

    DLI 导入表数据GaussDB(DWS)集群 本实践演示使用GaussDB(DWS)外表功能从 数据湖探索 服务DLI导入数据GaussDB(DWS) 数据仓库 的过程。 了解DLI请参见 数据湖 产品介绍。 本实践预计时长60分钟,实践用到的云服务包括虚拟私有云 VPC及子网、数据湖探索

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了