弹性云服务器 ECS

 

弹性云服务器(Elastic Cloud Server)是一种可随时自助获取、可弹性伸缩的云服务器,帮助用户打造可靠、安全、灵活、高效的应用环境,确保服务持久稳定运行,提升运维效率

 
 

    客户端到服务器程序 更多内容
  • 示例程序

    示例程序 OBS BrowserJS SDK提供了丰富的示例程序,方便用户参考或直接使用。您可以从OBS BrowserJS SDK开发包中获取示例程序,如eSDK_Storage_OBS_<VersionId>_BrowserJS.zip,解压后eSDK_Storage_OBS

    来自:帮助中心

    查看更多 →

  • 上传文件到云服务器方式概览

    使用SCP工具上传文件Linux系统云 服务器 ,详细操作请参考本地Linux主机使用SCP上传文件Linux云服务器 使用SFTP工具上传文件Linux系统云服务器,详细操作请参考本地Linux主机使用SFTP上传文件Linux云服务器 使用FTP站点上传文件Linux系统云服务器,详细

    来自:帮助中心

    查看更多 →

  • Spark从Hive读取数据再写入HBase样例程序开发思路

    table2表,用于将分析后的数据写入。 将原日志文件放置HDFS系统中。 在本地新建一个空白的log1.txt文件,并在文件内写入如下内容: 1,100 在HDFS中新建一个目录/tmp/input,并将log1.txt文件上传至此目录。 在HDFS客户端,执行如下命令获取安全认证。 cd /opt/hadoopclient

    来自:帮助中心

    查看更多 →

  • Spark从Hive读取数据再写入HBase样例程序开发思路

    table2表,用于将分析后的数据写入。 将原日志文件放置HDFS系统中。 在本地新建一个空白的log1.txt文件,并在文件内写入如下内容: 1,100 在HDFS中新建一个目录/tmp/input,并将log1.txt文件上传至此目录。 在HDFS客户端,执行如下命令获取安全认证。 cd /opt/hadoopclient

    来自:帮助中心

    查看更多 →

  • Spark Streaming对接Kafka0-10样例程序开发思路

    版本号中不包含hw-ei的依赖包都来自开源仓库,请从Maven中心仓获取。 运行任务 在运行样例程序时需要指定<checkpointDir> <brokers> <topic> <batchTime>,其中<checkPointDir>指应用程序结果备份HDFS的路径,<brokers>指获取元数据的Kafka地

    来自:帮助中心

    查看更多 →

  • 上传安装程序

    上传安装程序 通过安装程序采用 .zip分发,文件名称通常为lab-install-*.*.*.zip,*.*.*是安装程序的版本号。 如果直接操作服务器,可以通过U盘将文件上传上去;如果是通过xShell等终端来操作的,可以通过相应的文件传输软件将文件上传到服务器中。 具体流程:

    来自:帮助中心

    查看更多 →

  • 小程序设置

    程序设置 网页版小程序介绍 网页版小程序制作 使用已认证公众号快速注册小程序 直接注册小程序 父主题: 设置网站前台

    来自:帮助中心

    查看更多 →

  • Spark SQL程序

    Spark SQL程序 场景说明 Java样例代码 Scala样例代码 父主题: 开发Spark应用

    来自:帮助中心

    查看更多 →

  • 调测程序

    调测程序 在Windows中调测程序 在Linux中调测程序 父主题: HBase应用开发指导

    来自:帮助中心

    查看更多 →

  • Spark Core样例程序开发思路

    /tmp/input(hdfs dfs命令有同样的作用),创建对应目录。 进入HDFS客户端下的“/tmp/input”目录,在Linux系统HDFS客户端使用命令hadoop fs -putinput_data1.txt /tmp/input和hadoop fs -putinput_data2

    来自:帮助中心

    查看更多 →

  • 配置主机名称与IP地址的映射

    /etc/hosts 将所有的SAP系统节点的主机名称和IP地址写入hosts文件中。 此处的IP地址为SAP节点上业务/客户端平面的IP地址。 Full-Quallified-Hostname和Short-Hostname均为服务器的host名称,例如“hana001” 格式为:IP-Address

    来自:帮助中心

    查看更多 →

  • Spark同步HBase数据到CarbonData开发思路

    Spark同步HBase数据CarbonData开发思路 场景说明 数据实时写入HBase,用于点查业务,数据每隔一段时间批量同步CarbonData表中,用于分析型查询业务。 运行前置操作 安全模式下该样例代码需要读取两个文件(user.keytab、krb5.conf)。user

    来自:帮助中心

    查看更多 →

  • 共享材料

    Presence客户端本机。 打开AirPresence客户端,修改服务器地址为“bmeeting.huaweicloud.com”。 输入投影码,单击,进行桌面共享。 父主题: 快速操作CloudLink Board

    来自:帮助中心

    查看更多 →

  • MRS安全认证原理和认证机制

    Kerberos服务在收到ST请求后,校验其中的TGT合法后,生成对应的应用服务的ST,再使用应用服务密钥将响应消息进行加密处理。 应用客户端收到ST响应消息后,将ST打包发给应用服务的消息里面传输给对应的应用服务端(Application Server)。 应用服务端收到请求后,使用本端应用

    来自:帮助中心

    查看更多 →

  • 客户端

    客户端 优化 域名 解析请求 选择合适的镜像 避免IPVS缺陷导致的DNS概率性解析超时 使用节点DNS缓存NodeLocal DNSCache 及时升级集群中的CoreDNS版本 谨慎调整VPC和虚拟机的DNS配置 父主题: CoreDNS配置优化实践

    来自:帮助中心

    查看更多 →

  • 配置RabbitMQ消息确认机制

    生产者在发布消息后,怎么确认消息已正确发布服务器端?服务器端又怎么确认消息已成功被消费?RabbitMQ提供的消息确认机制可以解决此问题。 在使用RabbitMQ时,生产者确认和消费者确认对于确保数据可靠性至关重要。如果连接失败,传输中的消息可能会丢失,需要重新传输。确认机制可以让服务器客户端知道何时重新

    来自:帮助中心

    查看更多 →

  • Spark Core样例程序开发思路

    /tmp/input(hdfs dfs命令有同样的作用),创建对应目录。 进入HDFS客户端下的“/tmp/input”目录,在Linux系统HDFS客户端使用命令hadoop fs -putinput_data1.txt /tmp/input和hadoop fs -putinput_data2

    来自:帮助中心

    查看更多 →

  • Spark Streaming对接Kafka0-10样例程序开发思路

    将打包生成的jar包上传到Spark客户端所在服务器的任意目录(例如“ /opt” )下。 运行任务 在运行样例程序时需要指定<checkpointDir> <brokers> <topic> <batchTime>,其中<checkPointDir>指应用程序结果备份HDFS的路径,<br

    来自:帮助中心

    查看更多 →

  • 使用客户端驱动程序实现故障转移和读写分离

    6版本,使用新版本的libpq驱动程序也可以实现故障转移。 本章节中故障转移指的是读业务的故障转移。 libpq是PostgreSQL的C应用程序接口,包含一组库函数,允许客户端程序将查询请求发送给PostgreSQL后端服务器并接收这些查询的结果。 JDBC是Java语言中用来规范客户端程序如何访问数

    来自:帮助中心

    查看更多 →

  • 什么是逻辑会话(Logical Sessions)

    事务失败:如果在会话达到上限时尝试启动新事务,可能会导致事务失败。客户端会收到错误消息,指示会话资源已耗尽。 会话的使用 会话在使用过程中可以进行多种数据库操作,包括读写操作和事务操作。所有在会话上下文中的操作都会绑定该会话。例如: coll1 = session.getDatabase("mydb1")

    来自:帮助中心

    查看更多 →

  • Windows下配置数据源

    新版本(V100R002C80SPC300及之后版本)的数据库当用户更新用户口令或者新建用户时,会同时存储两种格式的哈希码,这时将兼容开源的认证协议。 但是当老版本升级新版本时,由于哈希的不可逆性,所以数据库无法还原用户口令,进而生成新格式的哈希,所以仍然只保留了SHA256格式的哈希,导致仍然无法使用MD5做口令认证。

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了