opt open per 更多内容
  • STAR-CCM+安装与运行

    从STAR-CCM+官网买的正版软件中获取license,将license.dat文件放到/opt/Siemens 中 echo “export CDLMD_LICENSE_FILE=/opt/Siemens/license.dat” >> /root/.bashrc 运行Platform

    来自:帮助中心

    查看更多 →

  • 更新用户设置

    最大长度:32768 表3 请求Body参数 参数 是否必选 参数类型 描述 operation 是 String 是否开启资源配额限制 枚举值: OPEN CLOSE settings 是 UserSettingDto object 更新用户请求体 表4 UserSettingDto 参数

    来自:帮助中心

    查看更多 →

  • 导入并配置Oozie样例工程

    Hive。 使用客户端上传Oozie的example文件到HDFS。 登录客户端所在节点,切换到客户端所在目录,例如“/opt/client”。 cd /opt/client 执行以下命令配置环境变量。 source bigdata_env 执行以下命令在HDFS创建目录并上传样例工程到该目录。

    来自:帮助中心

    查看更多 →

  • 准备本地应用开发环境

    若使用Oracle JDK,请确保IntelliJ IDEA中的JDK配置为Oracle JDK。 若使用Open JDK,请确保IntelliJ IDEA中的JDK配置为Open JDK。 不同的IntelliJ IDEA不要使用相同的workspace和相同路径下的示例工程。 安装Maven

    来自:帮助中心

    查看更多 →

  • 内核资源使用

    得多的文件数。如果用户发现有“Too many open files”失败现象,请尝试缩小这个设置。通常情况下需要满足,系统FD(file descriptor)数量>=最大并发数*当前 服务器 主DN个数*max_files_per_process*3。 设置不当的风险与影响:请根

    来自:帮助中心

    查看更多 →

  • 预留参数

    预留参数 下列参数为预留参数,该版本不生效。 acce_min_datasize_per_thread dfs_partition_directory_length enable_fstream enable_hdfs_predicate_pushdown enable_orc_cache

    来自:帮助中心

    查看更多 →

  • 配置HDFS DataNode数据均衡

    bash /opt/client/HDFS/hadoop/sbin/start-balancer.sh -threshold 5 “/opt/client”为客户端安装目录,具体请以实际路径替换。 上述命令会在后台执行该任务,相关日志可以通过客户端安装目录“/opt/client

    来自:帮助中心

    查看更多 →

  • 配置HDFS DataNode数据均衡

    bash /opt/client/HDFS/hadoop/sbin/start-balancer.sh -threshold 5 “/opt/client”为客户端安装目录,具体请以实际路径替换。 上述命令会在后台执行该任务,相关日志可以通过客户端安装目录“/opt/client

    来自:帮助中心

    查看更多 →

  • 安装和使用社区OpenMPI

    3-1.0.1.0-redhat7.3-x86_64 /opt/hpcx-v2.2.0 安装OpenMPI。 下载社区OpenMPI,版本号为“openmpi-3.1.0.tar.gz”。 下载地址:https://www.open-mpi.org/software/ompi/v3.1/

    来自:帮助中心

    查看更多 →

  • 查询表大小时报错“could not open relation with OID xxx”

    查询表大小时报错“could not open relation with OID xxx” 问题现象 在执行pg_table_size查询表大小时,出现报错“could not open relation with OID xxxx.”。 原因分析 通过执行pg_table_s

    来自:帮助中心

    查看更多 →

  • Flink Jar作业是否支持上传配置文件,要如何操作?

    userData/kafka-sink.conf @Override public void open(Configuration parameters) throws Exception { super.open(parameters); initConf(); producer

    来自:帮助中心

    查看更多 →

  • Open-Sora1.2基于DevServer适配PyTorch NPU训练推理指导(6.3.910)

    Open-Sora1.2基于DevServer适配PyTorch NPU训练推理指导(6.3.910) 本文档主要介绍如何在ModelArts Lite DevServer上,使用PyTorch_npu+华为自研Ascend Snt9B硬件,完成Open-Sora 1.2 训练和推理。

    来自:帮助中心

    查看更多 →

  • 服务韧性

    的能力。 过载保护-OLC流控 通过限制每个租户的QPS(Query Per Second),阈值为500请求每秒,避免因为对微服务的请求量过大,导致服务不可用的情况。 过载保护-APIG流控 通过限制Open API访问的QPS,阈值为500请求每秒,避免因为对服务整体的请求量过大,导致服务不可访问的情况。

    来自:帮助中心

    查看更多 →

  • 内核资源使用

    目大得多的文件数。如果用户发现有“Too many open files”失败现象,请尝试缩小这个设置。通常情况下需要满足,系统FD(file descriptor)数量>=最大并发数*数据库节点个数*max_files_per_process*3。 设置不当的风险与影响:请根据

    来自:帮助中心

    查看更多 →

  • 使用Open API创建的实例如何自动安装指定插件?

    使用Open API创建的实例如何自动安装指定插件? 使用Open API创建的实例自动安装指定插件,目前可通过以下两种途径实现: 在实例的API参数“plugin_enable_list”中传入插件id,插件id是由插件作者和插件名组成,格式为“publisher.name”。

    来自:帮助中心

    查看更多 →

  • 如何自定义数据源&发布查询类Open API?

    如何自定义数据源&发布查询类Open API? 应用场景说明 1:用户需要自定义首页数据 2:用户需要将特定的查询结果发布为查询类的Open API 前提条件 1:用户具有报表中心相关权限 2:数据类别创建完成 配置简介 路径:集成中心->集成中心->数据集成 1.打开数据源中心页面,选择业务对象

    来自:帮助中心

    查看更多 →

  • duplicate value "error" in /opt/huawei/openresty/nginx/.../xxx.conf:40

    duplicate value "error" in /opt/huawei/openresty/nginx/.../xxx.conf:40 问题现象 配置同步失败,日志详细信息提示如下: "duplicate value "error" in /opt/huawei/openresty/nginx/

    来自:帮助中心

    查看更多 →

  • 安装配置和启动GDS

    Cert_file 示例: 以4中SSL证书以上传至/opt/bin为例,命令如下。 /opt/bin/dws/gds/bin/gds -d /input_data/ -p 192.168.0.90:5000 -H 10.10.0.1/24 -l /opt/bin/dws/gds/gds_log

    来自:帮助中心

    查看更多 →

  • GDS导入示例

    其中GDS安装路径为“/opt/bin/dws/gds”,数据文件存放在“/input_data/”目录下,数据服务器所在IP为192.168.0.90和192.168.0.91,GDS监听端口为5000,以后台方式运行。 在IP为192.168.0.90的数据服务器上启动GDS。 /opt/bin/dws/gds/gds

    来自:帮助中心

    查看更多 →

  • 导入并配置Oozie样例工程

    ve。 使用客户端上传Oozie的examples文件夹到HDFS。 登录客户端所在节点,切换到客户端所在目录,例如“/opt/client”。 cd /opt/client 执行以下命令配置环境变量。 source bigdata_env 执行以下命令认证用户并登录。首次登录需要修改密码。

    来自:帮助中心

    查看更多 →

  • 导入并配置Oozie样例工程

    ve。 使用客户端上传Oozie的examples文件夹到HDFS。 登录客户端所在节点,切换到客户端所在目录,例如“/opt/client”。 cd /opt/client 执行以下命令配置环境变量。 source bigdata_env 执行以下命令认证用户并登录。首次登录需要修改密码。

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了