开发者学习中心

开发者一站式学习、体验中心,学有所得、学有所乐!

 

    怎么在云服务器装java环境 更多内容
  • 在Linux环境中调测Kafka应用

    Linux环境中调测Kafka应用 操作场景 程序代码完成开发后,可以Linux环境中运行IoTDB-Kafka样例程序。 前提条件 已安装IoTDB和Kafka客户端。 当客户端所在主机不是集群中的节点时,需要在客户端所在节点的hosts文件中设置主机名和IP地址映射。主机名和IP地址请保持一一对应。

    来自:帮助中心

    查看更多 →

  • 在Linux环境中调测HetuEngine应用

    Linux环境中调测HetuEngine应用 操作场景 程序代码完成开发后,可以把代码编译成jar包,上传到Linux环境进行程序功能调试。 Linux环境上调测程序前,需Linux节点预安装客户端。 操作步骤 Windows环境的开发环境IntelliJ IDEA中,在“Maven

    来自:帮助中心

    查看更多 →

  • 在Linux环境中调测Spark应用

    Linux环境中调测Spark应用 程序代码完成开发后,您可以上传至Linux客户端环境中运行应用。使用Scala或Java语言开发的应用程序Spark客户端的运行步骤是一样的。 使用Python开发的Spark应用程序无需打包成jar,只需将样例工程复制到编译机器上即可。

    来自:帮助中心

    查看更多 →

  • 在Notebook调试环境中部署推理服务

    Notebook调试环境中部署推理服务 ModelArts的开发环境Notebook中可以部署推理服务进行调试。 Step1 准备Notebook 参考准备Notebook完成Notebook的创建,并打开Notebook。 Step2 准备权重文件 将OBS中的模型权重上传

    来自:帮助中心

    查看更多 →

  • 在推理生产环境中部署推理服务

    推理生产环境中部署推理服务 本章节介绍如何在ModelArts的推理生产环境(ModelArts控制台的在线服务功能)中部署推理服务。 Step1 准备模型文件和权重文件 OBS桶中,创建文件夹,准备模型权重文件、推理启动脚本run_vllm.sh及SSL证书。此处以chatglm3-6b为例。

    来自:帮助中心

    查看更多 →

  • 在Notebook调试环境中部署推理服务

    Notebook调试环境中部署推理服务 ModelArts的开发环境Notebook中可以部署推理服务进行调试。 Step1 准备Notebook 参考准备Notebook完成Notebook的创建,并打开Notebook。 Step2 准备权重文件 将OBS中的模型权重上传

    来自:帮助中心

    查看更多 →

  • 在推理生产环境中部署推理服务

    推理生产环境中部署推理服务 本章节介绍如何在ModelArts的推理生产环境(ModelArts控制台的在线服务功能)中部署推理服务。 Step1 准备模型文件和权重文件 OBS桶中,创建文件夹,准备模型权重文件、推理启动脚本run_vllm.sh及SSL证书。此处以chatglm3-6b为例。

    来自:帮助中心

    查看更多 →

  • 在Notebook调试环境中部署推理服务

    Notebook调试环境中部署推理服务 ModelArts的开发环境Notebook中可以部署推理服务进行调试。 Step1 准备Notebook 参考准备Notebook完成Notebook的创建,并打开Notebook。 Step2 准备模型代码包和权重文件 将OBS中的

    来自:帮助中心

    查看更多 →

  • 在推理生产环境中部署推理服务

    推理生产环境中部署推理服务 本章节介绍如何在ModelArts的推理生产环境(ModelArts控制台的在线服务功能)中部署推理服务。 Step1 准备模型文件和权重文件 OBS桶中,创建文件夹,准备ascend_vllm代码包、模型权重文件、推理启动脚本run_vllm.s

    来自:帮助中心

    查看更多 →

  • 公网环境下如何提高上传大文件速度?(Java SDK)

    公网环境如何提高上传大文件速度?(Java SDK) 公网环境下对于超过100MB的大文件,建议通过分段上传方式上传。 分段上传是将单个对象拆分为一系列段分别上传,每个段都是对象数据的连续部分,您可以按照任意顺序上传段。如果其中某个段传输失败,可以重新传输该段且不会影响其他段

    来自:帮助中心

    查看更多 →

  • 方案概述

    问规则,保障环境安全。 方案优势 低成本 提供极致性价比的 云服务器 ,用户可以根据实际需求选择不同规格的弹性 服务器 。 一键部署 一键部署,即可完成云服务器创建和Java Web环境初始化配置。 开源和定制化 该解决方案是开源的,用户可以免费用于商业用途,并且还可以源码基础上进行定制化开发。

    来自:帮助中心

    查看更多 →

  • 成长地图

    应用容器化改造流程 步骤1:对应用进行分析 步骤2:准备应用运行环境 步骤2:准备应用运行环境 步骤2:准备应用运行环境 更多 云服务器卡顿 应用容器化改造介绍 应用容器化改造流程 步骤1:对应用进行分析 步骤2:准备应用运行环境 更多 Ping不通 应用容器化改造介绍 应用容器化改造流程

    来自:帮助中心

    查看更多 →

  • 环境

    环境 获取环境列表 创建环境 删除环境 父主题: CAE API

    来自:帮助中心

    查看更多 →

  • 环境

    环境 创建环境 获取所有环境 根据环境ID删除环境 根据环境ID修改环境 根据环境ID获取环境详细信息 根据环境ID修改环境资源 根据环境ID开通环境资源 根据环境ID查询环境纳管的资源 根据环境ID查询环境创建的资源 根据环境ID新增环境资源 根据环境ID更新环境资源 根据环境ID删除环境资源

    来自:帮助中心

    查看更多 →

  • 在Linux环境中调测Doris应用

    Linux环境中调测Doris应用 操作场景 程序代码完成开发后,您可以上传Jar包至Linux环境中运行应用。 前提条件 Linux环境已安装JDK,版本号需要和IntelliJ IDEA导出Jar包使用的JDK版本一致。 当Linux环境所在主机不是集群中的节点时,需要在

    来自:帮助中心

    查看更多 →

  • 在Linux环境中调测Doris应用

    Linux环境中调测Doris应用 操作场景 程序代码完成开发后,您可以上传Jar包至Linux环境中运行应用。 前提条件 Linux环境已安装JDK,版本号需要和IntelliJ IDEA导出Jar包使用的JDK版本一致。 当Linux环境所在主机不是集群中的节点时,需要在

    来自:帮助中心

    查看更多 →

  • 在Linux环境中调测HBase应用

    Linux环境中调测HBase应用 操作场景 HBase应用程序支持安装HBase客户端的Linux环境中运行。程序代码完成开发后,您可以上传Jar包至Linux环境中运行应用。 前提条件 已安装客户端时: 已安装HBase客户端。 当客户端所在主机不是集群中的节点时,需要

    来自:帮助中心

    查看更多 →

  • 在Linux环境中调测HDFS应用

    Linux环境中调测HDFS应用 操作场景 HDFS应用程序支持Linux环境中运行。程序代码完成开发后,可以上传Jar包至准备好的Linux环境中运行。 HDFS应用程序运行完成后,可直接通过运行结果查看应用程序运行情况,也可以通过HDFS日志获取应用运行情况。 前提条件

    来自:帮助中心

    查看更多 →

  • 在Linux环境中调测HDFS应用

    Linux环境中调测HDFS应用 操作场景 HDFS应用程序支持Linux环境中运行。程序代码完成开发后,可以上传Jar包至准备好的Linux环境中运行。 HDFS应用程序运行完成后,可直接通过运行结果查看应用程序运行情况,也可以通过HDFS日志获取应用运行情况。 前提条件

    来自:帮助中心

    查看更多 →

  • 在推理生产环境中部署推理服务

    推理生产环境中部署推理服务 本章节介绍如何在ModelArts的推理生产环境(ModelArts控制台的在线服务功能)中部署推理服务。 Step1 准备模型文件和权重文件 OBS桶中,创建文件夹,准备模型权重文件、推理启动脚本run_vllm.sh及SSL证书。此处以chatglm3-6b为例。

    来自:帮助中心

    查看更多 →

  • 在Notebook调试环境中部署推理服务

    Notebook调试环境中部署推理服务 ModelArts的开发环境Notebook中可以部署推理服务进行调试。 Step1 准备Notebook 参考准备Notebook完成Notebook的创建,并打开Notebook。 Step2 准备权重文件 将OBS中的模型权重上传

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了