开发者学习中心

开发者一站式学习、体验中心,学有所得、学有所乐!

 

    linux中udev 更多内容
  • 在Linux中调测Hive JDBC应用

    Linux调测Hive JDBC应用 执行mvn package生成jar包,在工程目录target目录下获取,比如:hive-examples-1.0.jar。 在运行调测环境上创建一个目录作为运行目录,如“/opt/hive_examples”(Linux环境),并在该目录下创建子目录“conf”。

    来自:帮助中心

    查看更多 →

  • 在Linux中调测Hive HCatalog应用

    hive-site.xml)添加如下配置: <property> <name>hive.metastore.sasl.enabled</name> <value>true</value> </property> 使用Hive客户端,在beeline创建源表t1:create table

    来自:帮助中心

    查看更多 →

  • 在Linux环境中调测Storm应用

    Linux环境调测Storm应用 操作场景 Storm应用程序不支持在Windows环境下运行,只支持在Linux环境下运行。 在Linux环境下可以使用storm命令行完成拓扑的提交。 前提条件 已安装Storm客户端。 当客户端所在主机不是集群的节点时,需要在客户端所在

    来自:帮助中心

    查看更多 →

  • 在Linux环境中调测ClickHouse应用

    Linux环境调测ClickHouse应用 ClickHouse应用程序支持在Linux环境运行。在程序代码完成开发后,您可以上传Jar包至准备好的Linux运行环境运行。 前提条件 Linux环境已安装JDK,版本号需要和IntelliJ IDEA导出Jar包使用的JDK版本一致,并设置好Java环境变量。

    来自:帮助中心

    查看更多 →

  • 在Linux环境中调测ClickHouse应用

    Linux环境调测ClickHouse应用 ClickHouse应用程序也支持在Linux环境运行。在程序代码完成开发后,您可以上传Jar包至准备好的Linux运行环境运行。 前提条件 Linux环境已安装JDK,版本号需要和IntelliJ IDEA导出Jar包使用的J

    来自:帮助中心

    查看更多 →

  • 在Linux中调测JDBC或Session应用

    Linux调测JDBC或Session应用 操作场景 IoTDB应用程序支持在安装IoTDB客户端的Linux环境运行。在程序代码完成开发后,您可以上传Jar包至准备好的Linux运行环境运行。操作以Session程序为例,JDBC程序操作与Session程序一样。 前提条件

    来自:帮助中心

    查看更多 →

  • 如何在Linux实例中配置静态IP地址?

    如何在Linux实例配置静态IP地址? 操作场景 华为云公共镜像默认使用DHCP的方式动态获取IP地址,如果DHCP动态获取IP地址的方式无法满足业务需求,可参考本文在 弹性云服务器 实例为网卡配置静态IP地址。 信息收集 在配置静态IP地址之前,需要获取当前Linux实例的IP

    来自:帮助中心

    查看更多 →

  • 在Linux中调测Presto应用开发

    f下,并修改样例代码conf目录下的presto.preperties。未开启Kerberos认证集群无须执行此步骤。 表1 presto.preperties参数说明 参数 说明 user 用于Kerberos认证的用户名,即准备Presto应用开发用户创建的开发用户的用户名。

    来自:帮助中心

    查看更多 →

  • 清理网络规则文件

    以上命令斜体部分会根据用户的实际环境有区别。 对于CentOS 6系列的镜像,为避免网卡名发生漂移,您需要创建一个空的rules配置文件。 示例: touch /etc/udev/rules.d/75-persistent-net-generator.rules //命令斜体部分会根据用户的实际环境有区别

    来自:帮助中心

    查看更多 →

  • 挂载NFS文件共享到Linux客户端

    nfs-common 不同操作系统回显信息不同,如果回显表1信息,说明已经成功安装NFS客户端,则执行步骤3;如果未回显表中信息,则需执行表安装命令安装NFS客户端。 登录客户端执行如下命令,创建本地挂载路径。 mkdir /本地路径 执行如下命令,挂载文件共享。 mount -t

    来自:帮助中心

    查看更多 →

  • 在Linux中调测JDBC样例程序

    Linux调测JDBC样例程序 Hive JDBC应用程序支持在安装Hive客户端的Linux环境运行。在程序代码完成开发后,您可以上传Jar包至准备好的Linux运行环境运行。 前提条件 已安装Hive客户端。 当客户端所在主机不是集群的节点时,需要在客户端所在节点的

    来自:帮助中心

    查看更多 →

  • 用户指南

    d/80-persistent-net.rules 将2查询到的,且“80-persistent-net.rules”未体现的网卡MAC地址和名称,写入该文件,使得 裸金属服务器 重启复位后,网卡名称和顺序不会发生改变。 网卡的MAC地址和名称的字母,请使用小写字母。 vim /etc/udev/rules.d/80-persistent-net

    来自:帮助中心

    查看更多 →

  • 配置自定义VLAN网络(Ubuntu系列)

    rules”,且该配置文件已存在2查询到的除“bond0”和“lo”以外的其它所有网卡和对应的MAC地址,请执行6。 否则,继续执行4。 执行以下命令,将“/etc/udev/rules.d/70-persistent-net.rules”文件拷贝一份(文件名为“/etc/udev/rules

    来自:帮助中心

    查看更多 →

  • 在Linux环境中查看Spark程序调测结果

    Linux环境查看Spark程序调测结果 操作场景 Spark应用程序运行完成后,可通过如下方式查看应用程序的运行情况。 通过运行结果数据查看应用程序运行情况。 登录Spark WebUI查看应用程序运行情况。 通过Spark日志获取应用程序运行情况。 操作步骤 查看Spark应用运行结果数据。

    来自:帮助中心

    查看更多 →

  • 在Linux环境中调测MapReduce应用

    中<inputPath>指HDFS文件系统input的路径,<outputPath>指HDFS文件系统output的路径。 在执行以上命令之前,<outputPath>目录必须不存在,否则会报错。 在MapReduce任务运行过程禁止重启HDFS服务,否则可能会导致任务失败。

    来自:帮助中心

    查看更多 →

  • 变更Flexus X实例规格

    实例的vCPU或内存规格。 变更须知 云服务器 规格(CPU或内存)变小,会影响云 服务器 的性能。 当Flexus X实例处于开关机、重置系统、迁移或者云硬盘处于正在扩容等中间状态时,不支持变更Flexus X实例规格。 Windows操作系统的云服务器,执行变更规格操作前建议

    来自:帮助中心

    查看更多 →

  • 在Linux环境中查看Spark程序调测结果

    Linux环境查看Spark程序调测结果 操作场景 Spark应用程序运行完成后,可通过如下方式查看应用程序的运行情况。 通过运行结果数据查看应用程序运行情况。 登录Spark WebUI查看应用程序运行情况。 通过Spark日志获取应用程序运行情况。 操作步骤 查看Spark应用运行结果数据。

    来自:帮助中心

    查看更多 →

  • 在Linux环境中调测MapReduce应用

    Linux环境调测MapReduce应用 操作场景 在程序代码完成开发后,可以在Linux环境运行应用。 MapReduce应用程序运行完成后,可通过如下方式查看应用程序的运行情况。 通过运行结果查看程序运行情况。 登录MapReduce WebUI查看应用程序运行情况。 登录Yarn

    来自:帮助中心

    查看更多 →

  • 在Linux环境中调测MapReduce应用

    Linux环境调测MapReduce应用 操作场景 在程序代码完成开发后,您可以在Linux环境运行应用。 MapReduce应用程序运行完成后,可通过如下方式查看应用程序的运行情况。 通过运行结果查看程序运行情况。 登录MapReduce WebUI查看应用程序运行情况。

    来自:帮助中心

    查看更多 →

  • 变更单台ECS规格

    如操作系统无法启动等问题)。 Linux操作系统的“XEN实例”变更为“KVM实例”时,优先推荐使用XEN实例变更为KVM实例(Linux-自动配置)。 变更须知 变更规格过程,弹性云服务器需要关机,建议您选择业务空闲时间进行操作。 变更规格过程,不要对弹性云服务器做任何操作

    来自:帮助中心

    查看更多 →

  • DataNode的容量计算出错如何处理

    DataNode的容量计算出错如何处理 问题 当多个data.dir被配置在一个磁盘分区内,DataNode的容量计算将会出错。 回答 目前容量计算是基于磁盘的,类似于Linux里面的df命令。理想状态下,用户不会在同一个磁盘内配置多个data.dir,否则所有的数据都将写入一个磁盘,在性能上会有很大的影响。 因此配置如下:

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了