弹性云服务器 ECS

 

弹性云服务器(Elastic Cloud Server)是一种可随时自助获取、可弹性伸缩的云服务器,帮助用户打造可靠、安全、灵活、高效的应用环境,确保服务持久稳定运行,提升运维效率

 
 

    客户端运行服务器中的程序 更多内容
  • 独立的子程序

    独立程序 在Schema内创建程序,在Schema内创建存储过程、函数、包等。 详细使用请参考: CREATE FUNCTION CREATE PROCEDURE 父主题: 子程序

    来自:帮助中心

    查看更多 →

  • Spark从HBase读取数据再写入HBase样例程序开发思路

    通过IDEA自带Maven工具,打包项目,生成jar包。具体操作请参考在Linux环境编包并运行Spark程序。 编译打包前,样例代码user.keytab、krb5.conf文件路径需要修改为该文件所在客户端 服务器 实际路径。例如:“/opt/female/user.keyt

    来自:帮助中心

    查看更多 →

  • 检查暂停的程序

    +Shift+F8”(IDEA快捷键)。 “运行和调试”视图包含以下部分: 变量 调用堆栈 检视 断点 要自定义“运行和调试”视图内容,请单击右上角“视图和更多操作”按钮(),然后在上下文菜单勾选要显示部分。或者可以右键单击“运行和调试”视图任意部分标题栏,然后在上下文菜单中选择。

    来自:帮助中心

    查看更多 →

  • 嵌套的子程序

    STRICT } 仅支持一个限定符引用嵌套子程序或嵌套子程序变量。 当子函数(FUNCTION)返回值类型为函数自定义record类型时,无法使用subfunc().col方式访问子函数返回值列属性,执行时会报错。 嵌套子程序声明必须是在声明部分最后(在其他变量、游标、类型等声明完成之后再声明嵌套子程序)。

    来自:帮助中心

    查看更多 →

  • Spark从HBase读取数据再写入HBase样例程序开发思路

    通过IDEA自带Maven工具,打包项目,生成jar包。具体操作请参考在Linux环境调测Spark应用。 编译打包前,样例代码user.keytab、krb5.conf文件路径需要修改为该文件所在客户端服务器实际路径。例如:“/opt/female/user.keytab”,“/opt/female/krb5

    来自:帮助中心

    查看更多 →

  • 使用Spark执行Hudi样例程序开发思路

    运行Spark程序运行Python样例代码无需通过Maven打包。 将打包生成jar包上传到Spark客户端所在服务器任意目录(例如“ /opt/example/” )下。 运行任务 登录Spark客户端节点,执行如下命令: source 客户端安装目录/bigdata_env

    来自:帮助中心

    查看更多 →

  • 应用程序怎么访问VPC中的RDS实例

    应用程序怎么访问VPCRDS实例 您需要确保您应用程序所在弹性云服务器与云数据库RDS实例在同一个虚拟私有云。如果不在,需要修改虚拟私有云中路由表和网络ACL,以确保应用程序所在弹性云服务器能够访问云数据库RDS实例。 父主题: 数据库连接

    来自:帮助中心

    查看更多 →

  • 查询运行中的开发环境可用时长

    查询运行开发环境可用时长 功能介绍 该接口用于查询运行开发环境可用时长。 接口约束 暂无约束 调试 您可以在 API Explorer 调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。 URI GET /v1/

    来自:帮助中心

    查看更多 →

  • 获取运行中Spark应用的Container日志

    获取运行Spark应用Container日志 运行Spark应用Container日志分散在多个节点,本章节用于说明如何快速获取Container日志。 场景说明 可以通过yarn logs命令获取运行在Yarn上应用日志,针对不同场景,可以使用以下命令获取需要日志:

    来自:帮助中心

    查看更多 →

  • 获取运行中Spark应用的Container日志

    获取运行Spark应用Container日志 运行Spark应用Container日志分散在多个节点,本章节用于说明如何快速获取Container日志。 场景说明 可以通过yarn logs命令获取运行在Yarn上应用日志,针对不同场景,可以使用以下命令获取需要日志:

    来自:帮助中心

    查看更多 →

  • Spark从Hive读取数据再写入HBase样例程序开发思路

    通过IDEA自带Maven工具,打包项目,生成jar包。具体操作请参考在Linux环境编包并运行Spark程序。 编译打包前,样例代码user.keytab、krb5.conf文件路径需要修改为该文件所在客户端服务器实际路径。例如:“/opt/female/user.keyt

    来自:帮助中心

    查看更多 →

  • 准备Spark应用运行环境

    弹性云服务器VPC需要与 MRS 集群在同一个VPC。 弹性云服务器网卡需要与MRS集群在同一个网段。 申请弹性IP,绑定新申请弹性云主机IP,并配置安全组出入规则。 下载客户端程序,请参考下载MRS客户端。 登录客户端下载目标节点,以root用户安装集群客户端。 执行以下命令解压客户端包。

    来自:帮助中心

    查看更多 →

  • 如何解决云服务器中的SAP应用程序不能成功启动?

    由于在/etc/hosts文件中存在一行“127.0.0.1 主机名称 主机名称”,导致在 云服务器 中安装的SAP应用程序不能成功启动,需登录SAP应用云服务器中修改配置,确保SAP应用软件可以成功启动。只需在SAP应用软件所在的云服务器中执行此操作,SAP HANA所在的云服务器中不需要执行此操作。执行以下命令,打开Cloud-Ini

    来自:帮助中心

    查看更多 →

  • 如何解决云服务器中的SAP应用程序不能成功启动?

    如何解决云服务器SAP应用程序不能成功启动? 问题描述 由于在“/etc/hosts”文件存在一行“127.0.0.1 主机名称 主机名称”,导致在云服务器安装SAP应用程序不能成功启动,需登录SAP应用云服务器修改配置,确保SAP应用软件可以成功启动。 只需在SAP

    来自:帮助中心

    查看更多 →

  • 如何解决云服务器中的SAP应用程序不能成功启动?

    由于在/etc/hosts文件中存在一行“127.0.0.1 主机名称 主机名称”,导致在云服务器中安装的SAP应用程序不能成功启动,需登录SAP应用云服务器中修改配置,确保SAP应用软件可以成功启动。只需在SAP应用软件所在的云服务器中执行此操作,SAP HANA所在的云服务器中不需要执行此操作。执行以下命令,打开Cloud-Ini

    来自:帮助中心

    查看更多 →

  • 如何解决云服务器中的SAP应用程序不能成功启动?

    由于在/etc/hosts文件中存在一行“127.0.0.1 主机名称 主机名称”,导致在云服务器中安装的SAP应用程序不能成功启动,需登录SAP应用云服务器中修改配置,确保SAP应用软件可以成功启动。只需在SAP应用软件所在的云服务器中执行此操作,SAP HANA所在的云服务器中不需要执行此操作。执行以下命令,打开Cloud-Ini

    来自:帮助中心

    查看更多 →

  • 如何解决云服务器中的SAP应用程序不能成功启动?

    由于在/etc/hosts文件中存在一行“127.0.0.1 主机名称 主机名称”,导致在云服务器中安装的SAP应用程序不能成功启动,需登录SAP应用云服务器中修改配置,确保SAP应用软件可以成功启动。只需在SAP应用软件所在的云服务器中执行此操作,SAP HANA所在的云服务器中不需要执行此操作。执行以下命令,打开Cloud-Ini

    来自:帮助中心

    查看更多 →

  • 如何解决云服务器中的SAP应用程序不能成功启动?

    如何解决云服务器SAP应用程序不能成功启动? 问题描述 由于在“/etc/hosts”文件存在一行“127.0.0.1 主机名称 主机名称”,导致在云服务器安装SAP应用程序不能成功启动,需登录SAP应用云服务器修改配置,确保SAP应用软件可以成功启动。 只需在SAP

    来自:帮助中心

    查看更多 →

  • Spark SQL样例程序开发思路

    开发思路 统计日志文件本周末网购停留总时间超过2个小时女性网民信息。 主要分为四个部分: 创建表,将日志文件数据导入到表。 筛选女性网民,提取上网时间数据信息。 汇总每个女性上网总时间。 筛选出停留时间大于两个小时女性网民信息。 打包项目 通过IDEA自带Maven工具,打

    来自:帮助中心

    查看更多 →

  • Spark Core样例程序开发思路

    Spark Core样例程序开发思路 场景说明 假定用户有某个周末网民网购停留时间日志,基于某些业务要求,要求开发Spark应用程序实现如下功能: 统计日志文件本周末网购停留总时间超过2个小时女性网民信息。 周末两天日志文件第一列为姓名,第二列为性别,第三列为本次停留时间,单位为分钟,分隔符为“

    来自:帮助中心

    查看更多 →

  • Spark Streaming对接Kafka0-10样例程序开发思路

    Dir>指应用程序结果备份到HDFS路径,<brokers>指获取元数据Kafka地址,<topic>指读取Kafka上topic名称,<batchTime>指Streaming分批处理间隔。 由于Spark Streaming Kafka依赖包在客户端存放路径与其他

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了