开发者学习中心

开发者一站式学习、体验中心,学有所得、学有所乐!

 

    linux客户端时间服务器 更多内容
  • 本地Linux主机使用SCP上传文件到Linux云服务器

    本地Linux主机使用SCP上传文件到Linux 服务器 操作场景 本节操作介绍本地Linux操作系统主机通过SCP向Linux服务器传输文件的操作步骤。 操作步骤 登录管理控制台,在E CS 列表页面记录待上传文件的云服务器的弹性公网IP。 上传文件 在本地Linux操作系统主机

    来自:帮助中心

    查看更多 →

  • 本地Linux主机使用FTP上传文件到Linux云服务器

    本地Linux主机使用FTP上传文件到Linux服务器 操作场景 本文介绍如何在 Linux 系统的本地机器上使用 FTP 服务,将文件从本地上传到云服务器中。 前提条件 已在待上传文件的云服务器中搭建 FTP 服务。 云服务器已绑定弹性公网IP,且安全组入方向开启TCP协议的21端口。

    来自:帮助中心

    查看更多 →

  • 本地Linux主机使用FTP上传文件到Linux云服务器

    本地Linux主机使用FTP上传文件到Linux服务器 操作场景 本文介绍如何在 Linux 系统的本地机器上使用 FTP 服务,将文件从本地上传到云服务器中。 前提条件 已在待上传文件的云服务器中搭建 FTP 服务。 云服务器已绑定弹性公网IP,且安全组入方向开启TCP协议的21端口。

    来自:帮助中心

    查看更多 →

  • Linux中未安装客户端时提交Storm拓扑

    Linux中未安装客户端时提交Storm拓扑 操作场景 Storm支持拓扑在未安装Storm客户端Linux环境中运行。 前提条件 客户端机器的时间 MRS 集群的时间要保持一致,时间差要小于5分钟。 当Linux环境所在主机不是集群中的节点时,需要在节点的hosts文件中设置主

    来自:帮助中心

    查看更多 →

  • Linux中未安装客户端时提交Storm拓扑

    Linux中未安装客户端时提交Storm拓扑 操作场景 Storm支持拓扑在未安装Storm客户端Linux环境中运行。 前提条件 客户端机器的时间与MRS集群的时间要保持一致,时间差要小于5分钟。 当Linux环境所在主机不是集群中的节点时,需要在节点的hosts文件中设置主

    来自:帮助中心

    查看更多 →

  • 本地Linux主机使用SFTP上传文件到Linux云服务器

    本地Linux主机使用SFTP上传文件到Linux服务器 操作场景 本节操作以CentOS操作系统为例,介绍配置SFTP、使用SFTP上传或下载文件、文件夹的操作步骤。 操作步骤 以root用户登录云服务器。 执行以下命令查看ssh版本,OpenSSH版本大于等于4.8p1。 ssh

    来自:帮助中心

    查看更多 →

  • 本地Linux主机使用SCP上传文件到Linux云服务器

    本地Linux主机使用SCP上传文件到Linux服务器 操作场景 本节操作介绍本地Linux操作系统主机通过SCP向Linux服务器传输文件的操作步骤。 操作步骤 登录管理控制台,在ECS列表页面记录待上传文件的云服务器的弹性公网IP。 上传文件 在本地Linux操作系统主机

    来自:帮助中心

    查看更多 →

  • 本地Linux主机使用SFTP上传文件到Linux云服务器

    本地Linux主机使用SFTP上传文件到Linux服务器 操作场景 本节操作以CentOS操作系统为例,介绍配置SFTP、使用SFTP上传或下载文件、文件夹的操作步骤。 操作步骤 以root用户登录云服务器。 执行以下命令查看ssh版本,OpenSSH版本大于等于4.8p1。 ssh

    来自:帮助中心

    查看更多 →

  • Linux云服务器登录方式概述

    Linux服务器登录方式概述 约束与限制 只有运行中的云服务器才允许用户登录。 Linux操作系统用户名“root”。 首次登录云耀云服务器,请先通过“重置密码”功能设置登录密码。 登录方式概述 请根据需要选择登录方式,登录云服务器。 表1 Linux服务器登录方式一览 云服务器操作系统

    来自:帮助中心

    查看更多 →

  • 挂载NFS协议类型文件系统到云服务器(Linux)

    ime属性是当前时间,每次查询根目录属性返回的都是服务端当时时间的值。 操作步骤 以root用户登录弹性云服务器。 若以非root用户登录弹性云服务器,具体操作请参考使用非root的普通用户挂载文件系统到Linux服务器。 安装NFS客户端。 安装NFS客户端。 查看系统是否安装NFS软件包。

    来自:帮助中心

    查看更多 →

  • macOS系统登录Linux云服务器

    macOS系统登录Linux服务器 操作场景 本节为您介绍如何在macOS系统主机上登录Linux云耀云服务器的操作。 前提条件 云服务器状态为“运行中”。 已获取Linux服务器用户名和密码。忘记密码请参考在控制台重置云耀云服务器密码重置密码。 所在安全组入方向已开放22端

    来自:帮助中心

    查看更多 →

  • Linux云服务器登录方式概述

    Linux服务器登录方式概述 本节介绍X实例的Linux服务器登录方式。 L实例 登录方式详见远程登录L实例云主机(VNC方式)。 登录方式概述 请根据需要选择登录方式,登录云服务器。 表1 Linux服务器登录方式一览 本地主机操作系统 连接方法 说明 条件 Windows

    来自:帮助中心

    查看更多 →

  • 怎样配置弹性云服务器的DNS和NTP信息?

    中同步时间。 打开“运行”窗口,依次执行以下命令,重启Windows Time服务。 net stop w32time net start w32time 手动修改客户端时间,使得客户端时间服务器时间不同。一分钟后,检查客户端时间服务器时间是否一致,如果一致,则表示时间同步配置成功。

    来自:帮助中心

    查看更多 →

  • macOS系统登录Linux云服务器

    已获取云服务器密码,忘记密码请参考在控制台重置密码。 Linux公共镜像云服务器用户名为“root”。 请确保安全组已开放登录端口(默认使用22端口),否则无法连接云服务器。配置安全组规则请参考通过SSH远程登录Linux服务器。 如需使用其他端口可登录云服务器后重新设置。修改远程登录端口请参考修改远程登录端口。

    来自:帮助中心

    查看更多 →

  • 安装Flink客户端

    登录MRS Manager。 单击“服务管理 > Flink > 下载客户端”,在“客户端类型”勾选“完整客户端”,“下载路径”选择“服务器端”,单击“确定”下载客户端服务器端。 执行如下命令解压缩客户端安装包“MRS_Flink_Client.tar”。 tar -xvf /t

    来自:帮助中心

    查看更多 →

  • 如何解决Linux主机迁移后时间异常问题?

    如何解决Linux 主机迁移 时间异常问题? 问题描述 部分Linux系统主机迁移完成后,目的端主机系统时间和硬件时间出现异常。如图1、图2所示,迁移后目的端系统时间和硬件时间与源端时间不一致。 图1 源端时间 图2 目的端时间 解决方案 您可以通过配置华为云镜像源和NTP服务器,解决

    来自:帮助中心

    查看更多 →

  • Linux版本

    图2 复制安装Agent的命令 远程登录待安装Agent的主机。 华为云主机 您可以登录弹性云服务器控制台,在“弹性云服务器”列表中,单击“远程登录”登录主机,详细操作请参见在云服务器控制台上登录主机。 若您的主机已经绑定了弹性IP,您也可以使用远程管理工具(例如:“Xftp”、

    来自:帮助中心

    查看更多 →

  • Spark Core样例程序开发思路

    kinit<用于认证的业务用户> 在Linux系统HDFS客户端使用命令hadoop fs -mkdir /tmp/input(hdfs dfs命令有同样的作用),创建对应目录。 进入到HDFS客户端下的“/tmp/input”目录,在Linux系统HDFS客户端使用命令hadoop fs

    来自:帮助中心

    查看更多 →

  • Spark SQL样例程序开发思路

    <用于认证的业务用户> 在Linux系统HDFS客户端使用命令hadoop fs -mkdir /tmp/input(hdfs dfs命令有同样的作用),创建对应目录。 进入到HDFS客户端下的“/tmp/input”目录,在Linux系统HDFS客户端使用命令hadoop fs

    来自:帮助中心

    查看更多 →

  • 使用文件备份恢复数据

    单击“操作”列下的“可恢复时间轴”。 选择需要将数据恢复的备份时间点。单击“恢复”。如图2所示。 选择该时间点恢复后,数据将恢复至该时间点的状态。 图2 恢复时间轴 选择恢复的位置: 当前位置:数据将恢复至当前服务器原文件路径下,并且覆盖同名文件的数据。仅Linux系统支持恢复到当前位置。

    来自:帮助中心

    查看更多 →

  • Spark Core样例程序开发思路

    <用于认证的业务用户> 在Linux系统HDFS客户端使用命令hadoop fs -mkdir /tmp/input(hdfs dfs命令有同样的作用),创建对应目录。 进入到HDFS客户端下的“/tmp/input”目录,在Linux系统HDFS客户端使用命令hadoop fs

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了