开发者学习中心

开发者一站式学习、体验中心,学有所得、学有所乐!

 

    linux pid 查询程序 更多内容
  • 在Linux中调测程序

    Linux中调测程序 调测OpenTSDB应用 查看OpenTSDB应用调测结果 父主题: 调测OpenTSDB应用

    来自:帮助中心

    查看更多 →

  • 在Linux中调测程序

    Linux中调测程序 安装客户端时编译并运行程序 未安装客户端时编译并运行程序 查看调测结果 父主题: 调测程序

    来自:帮助中心

    查看更多 →

  • 在Linux环境中查看Spark程序调测结果

    Linux环境中查看Spark程序调测结果 操作场景 Spark应用程序运行完成后,可通过如下方式查看应用程序的运行情况。 通过运行结果数据查看应用程序运行情况。 登录Spark WebUI查看应用程序运行情况。 通过Spark日志获取应用程序运行情况。 操作步骤 查看Spark应用运行结果数据。

    来自:帮助中心

    查看更多 →

  • Linux云服务器卡顿怎么办?

    正常进程:优化程序,或变更 云服务器配置 。 异常进程:建议您手动关闭进程,或者借助第三方工具关闭进程。 常用命令 本文相关操作命令以CentOS 7.2 64 位操作系统为例。其它版本的Linux操作系统命令可能有所差异,具体情况请参阅相应操作系统的官方文档。 Linux 云服务器 查看CPU使用率等性能相关问题时的常用命令如下:

    来自:帮助中心

    查看更多 →

  • 查询应用程序详情

    查询应用程序详情 功能介绍 查询应用程序详情(该功能目前仅支持华东-上海一、华北-北京四) 调用方法 请参见如何调用API。 URI GET /v2/{project_id}/fgs/applications/{id} 表1 路径参数 参数 是否必选 参数类型 描述 project_id

    来自:帮助中心

    查看更多 →

  • 在Linux中调测JDBC样例程序

    Linux中调测JDBC样例程序 Hive JDBC应用程序支持在安装Hive客户端的Linux环境中运行。在程序代码完成开发后,您可以上传Jar包至准备好的Linux运行环境中运行。 前提条件 已安装Hive客户端。 当客户端所在主机不是集群中的节点时,需要在客户端所在节点的

    来自:帮助中心

    查看更多 →

  • 开发冻结脚本和解冻脚本

    sh示例如下: #!/bin/sh AGENT_ROOT_PATH=$1 #Agent程序调用脚本时,传入的的根目录,日志函数等会使用此变量,请不要改名 PID=$2 #Agent程序调用脚本时,传入的PID数字,用于结果的输出,请不要改名 . "${AGENT_ROOT_PATH}/bin/agent_func

    来自:帮助中心

    查看更多 →

  • Linux云服务器卡顿怎么办?

    64位操作系统为例。其它版本的Linux操作系统命令可能有所差异,具体情况请参阅相应操作系统的官方文档。 Linux 服务器 查看CPU使用率等性能相关问题时的常用命令如下: ps -aux ps -ef top CPU占用率高问题定位 使用VNC功能登录云服务器。 执行如下命令查看当前系统的运行状态。

    来自:帮助中心

    查看更多 →

  • Linux云服务器卡顿怎么办?

    64位操作系统为例。其它版本的Linux操作系统命令可能有所差异,具体情况请参阅相应操作系统的官方文档。 Linux云服务器查看CPU使用率等性能相关问题时的常用命令如下: ps -aux ps -ef top CPU占用率高问题定位 使用VNC功能登录云服务器。 执行如下命令查看当前系统的运行状态。

    来自:帮助中心

    查看更多 →

  • 通过自定义脚本实现其它Linux应用的一致性备份

    sh示例如下: #!/bin/sh AGENT_ROOT_PATH=$1 #Agent程序调用脚本时,传入的的根目录,日志函数等会使用此变量,请不要改名 PID=$2 #Agent程序调用脚本时,传入的PID数字,用于结果的输出,请不要改名 . "${AGENT_ROOT_PATH}/bin/agent_func

    来自:帮助中心

    查看更多 →

  • 在Linux环境中查看Spark程序调测结果

    Linux环境中查看Spark程序调测结果 操作场景 Spark应用程序运行完成后,可通过如下方式查看应用程序的运行情况。 通过运行结果数据查看应用程序运行情况。 登录Spark WebUI查看应用程序运行情况。 通过Spark日志获取应用程序运行情况。 操作步骤 查看Spark应用运行结果数据。

    来自:帮助中心

    查看更多 →

  • 弹性云服务器支持的进程监控指标(安装Agent)

    proc_pHashId_file 打开文件数 进程打开文件数,pHashId是(进程名+进程ID)的md5值。 采集方式(Linux):通过执行ls -l /proc/pid/fd 可以查看数量。 采集方式(Windows):暂不支持。 ≥0 云服务器 1分钟 proc_running_count

    来自:帮助中心

    查看更多 →

  • Linux

    Linux 操作场景 本章节主要介绍如何将老架构的Agent升级到新架构Agent。 约束限制 不支持局点:华南-广州-友好用户环境、拉美-圣保罗一、拉美-墨西哥城一。 操作步骤 使用root账号,登录E CS 。 执行如下命令,确认当前Agent的版本是新架构Uniagent还是老架构telescope。

    来自:帮助中心

    查看更多 →

  • 在Linux环境中调测Hive JDBC样例程序

    Linux环境中调测Hive JDBC样例程序 Hive JDBC应用程序支持在安装Hive客户端的Linux环境中运行。在程序代码完成开发后,您可以上传Jar包至准备好的Linux运行环境中运行。 前提条件 已安装Hive客户端。 当客户端所在主机不是集群中的节点时,需要在客

    来自:帮助中心

    查看更多 →

  • 查询应用程序模板详情

    查询应用程序模板详情 功能介绍 查询应用程序模板详情(该功能目前仅支持华东-上海一、华北-北京四) 调用方法 请参见如何调用API。 URI GET /v2/{project_id}/fgs/application/templates/{id} 表1 路径参数 参数 是否必选 参数类型

    来自:帮助中心

    查看更多 →

  • 排查过程

    本章节介绍Linux操作系统中主机安全排查的具体过程。 操作步骤 查看主机是否存在异常进程。 查询命令:top 根据CPU占用率、进程名称等判断是否存在异常进程,如下可疑进程CPU占用率超过100%。 根据异常进程PID值,查看文件位置。 查询命令:lsof -p+进程PID值(如25267)

    来自:帮助中心

    查看更多 →

  • 手动更新GPU节点驱动版本

    kubelet-monit docker docker-monit 检查是否有程序正在使用GPU卡设备。 运行命令: sudo fuser -v /dev/nvidia* 如无fuser命令(以基于RPM的Linux发行版为例),可执行命令yum install psmisc安装psmisc包。

    来自:帮助中心

    查看更多 →

  • 数据标签库管理实施步骤

    数量 用途 Linux服务器 8线程cpu/32G 300G 2 部署标签画像应用集群 Linux服务器 16线程cpu/32G 300G 2 部署标签画像接口集群 表2 准备软环境 环境 软件/工具 版本 备注 基础环境 JDK 华为jdk-8u202 Java程序运行时环境 Tomcat

    来自:帮助中心

    查看更多 →

  • 云服务器网络优化方案

    -pc 2 3161 pid 3161's current affinity list: 0-3 pid 3161's new affinity list: 2 [root@localhost ~]# taskset -pc 3 3163 pid 3163's current

    来自:帮助中心

    查看更多 →

  • 在Linux环境中编包并运行Spark程序

    Linux环境中编包并运行Spark程序 操作场景 在程序代码完成开发后,您可以上传至Linux客户端环境中运行应用。使用Scala或Java语言开发的应用程序在Spark客户端的运行步骤是一样的。 使用Python开发的Spark应用程序无需打包成jar,只需将样例工程复制到编译机器上即可。

    来自:帮助中心

    查看更多 →

  • 在Linux环境中调测Hive JDBC样例程序

    Linux环境中调测Hive JDBC样例程序 Hive JDBC应用程序支持在安装Hive客户端的Linux环境中运行。在程序代码完成开发后,您可以上传Jar包至准备好的Linux运行环境中运行。 前提条件 已安装Hive客户端。 当客户端所在主机不是集群中的节点时,需要在客

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了