华为云

面向未来的智能世界,数字化是企业发展的必由之路。数字化成功的关键是以云原生的思维践行云原生,全数字化、全云化、AI驱动,一切皆服务。

华为云将持续创新,携手客户、合作伙伴和开发者,致力于让云无处不在,让智能无所不及,共建智能世界云底座。

 
 

    开源的压缩软件 更多内容
  • 基础版、企业版、社区开源版本对比

    服务创建分版本管理、支持分版本进行监控 - √ √ 支持分版本进行服务负载管理 √ √ √ 服务多端口 支持管理多个端口服务、支持管理多个端口多协议服务 √ √ √ 灰度发布支持多端口 - √ √ 服务多形态 支持容器类型服务后端 √ √ √ 协议及语言支持 HTTP协议灰度、治理、监控(根据协议特征不同细

    来自:帮助中心

    查看更多 →

  • 使用华为云开源镜像配置yum源

    使用华为云开源镜像配置yum源 yum,是一个专门为了解决包依赖关系而存在软件包管理器。如同 Windows 系统上可以通过各类“软件管家”实现软件一键安装、升级和卸载,Linux 系统也提供有这样工具,这就是 yum。 从华为云开源镜像站获取yum源方式如下: 进入开源镜像站首页。

    来自:帮助中心

    查看更多 →

  • MRS应用开发开源jar包冲突列表说明

    MRS 应用开发开源jar包冲突列表说明 HBase HDFS Kafka Spark2x

    来自:帮助中心

    查看更多 →

  • 通过华为云内网访问华为开源镜像站

    通过华为云内网访问华为开源镜像站 华为云镜像站提供免费内网通道给云上用户使用,需要用户接入镜像站终端节点服务,通过华为云内网访问华为开源镜像站操作步骤如下: 进入“终端节点”页面。 图1 终端节点界面 单击右上角“购买终端节点”,进入终端节点购买页面。 在购买页面进行如下配置:

    来自:帮助中心

    查看更多 →

  • 准备软件

    请根据用户桌面需求类型从微软或者其他合法渠道获取正规操作系统ISO镜像文件。 须知: 操作系统ISO镜像文件需为从正规渠道获取官方纯净镜像。非官方镜像或私有定制镜像,对操作系统做了很多未知修改,可能导致模板制作失败,或者与HDP不兼容导致无法使用,请勿使用此类镜像。 AnyBurn

    来自:帮助中心

    查看更多 →

  • 基础版、企业版及社区开源版本对比

    服务创建分版本管理、支持分版本进行监控 - √ √ 支持分版本进行服务负载管理 √ √ √ 服务多端口 支持管理多个端口服务、支持管理多个端口多协议服务 √ √ √ 灰度发布支持多端口 - √ √ 服务多形态 支持容器类型服务后端 √ √ √ 协议及语言支持 HTTP协议灰度、治理、监控(根据协议特征不同细

    来自:帮助中心

    查看更多 →

  • 和开源Redis相比,GeminiDB Redis性能如何?

    开源Redis相比,GeminiDB Redis性能如何? GeminiDB Redis采用多线程架构,QPS可随CPU数量线性扩展,可支持1w-1000w线性扩展;单点访问通常平均时延<1ms,P99<2ms,和开源Redis时延接近,详细性能数据可参考性能测试报告。 父主题:

    来自:帮助中心

    查看更多 →

  • 软件包制作

    |- ...... 目录结构详细说明如下: 目录 说明 bin 该目录下存放是用户软件包可执行信息,比如可执行bin文件,依赖压缩包文件等。 scripts 该目录下存放是生命周期脚本。 在创建应用时,可以根据生命周期脚本位置指定执行命令。比如install阶段,指定"bash

    来自:帮助中心

    查看更多 →

  • 主流开源大模型基于Standard适配PyTorch NPU训练指导(6.3.905)

    主流开源大模型基于Standard适配PyTorch NPU训练指导(6.3.905) 场景介绍 准备工作 预训练 SFT全参微调训练 LoRA微调训练 查看日志和性能 训练脚本说明 父主题: LLM大语言模型训练推理

    来自:帮助中心

    查看更多 →

  • 主流开源大模型基于Standard适配PyTorch NPU推理指导(6.3.905)

    主流开源大模型基于Standard适配PyTorch NPU推理指导(6.3.905) 场景介绍 准备工作 在Notebook调试环境中部署推理服务 在推理生产环境中部署推理服务 推理精度测试 推理性能测试 父主题: LLM大语言模型训练推理

    来自:帮助中心

    查看更多 →

  • KrbServer及LdapServer开源增强特性

    DFS中执行增、删、改、查数据操作时,必须获取对应TGT和ST,用于本次安全访问认证。 应用开发认证 MRS各组件提供了应用开发接口,用于客户或者上层业务产品集群使用。在应用开发过程中,安全模式集群提供了特定应用开发认证接口,用于应用程序安全认证与访问。例如hadoop-common

    来自:帮助中心

    查看更多 →

  • 升级代理客户端

    2019系统升级“24.9.0”版本代理客户端安装包“sdrs_xxxx_24.9.0.xxxx.zip”为例。 获取代理客户端软件包到待部署 服务器 任意目录并比对软件包sha256值,确保安装包完整性。 IDC上云模式:通过界面链接下载软件包,并上传到待部署服务器; 跨区域和跨可用区

    来自:帮助中心

    查看更多 →

  • MRS应用开发开源jar包冲突列表说明

    MRS应用开发开源jar包冲突列表说明 HBase HDFS Kafka Spark

    来自:帮助中心

    查看更多 →

  • 开源confluent-kafka-go连接MRS安全集群

    开源confluent-kafka-go连接MRS安全集群 用户问题 开源confluent-kafka-go如何连接MRS安全集群? 问题现象 开源confluent-kafka-go连接MRS安全集群失败。 原因分析 confluent-kafka-go依赖库librd

    来自:帮助中心

    查看更多 →

  • 如何修改开源组件Web页面会话超时时间?

    时长。 所有超时时长值请设置为统一值,避免时长设置不一致导致页面实际生效超时时长和设置值冲突。 修改Manager页面及认证中心超时时长。 MRS 3.x之前版本集群: 分别登录集群所有Master节点,在所有Master节点中执行2.b-2.d修改。 修改“/opt

    来自:帮助中心

    查看更多 →

  • 准备软件

    7-Zip压缩软件,用于压缩/解压缩软件包。 点此获取 CloudbaseInitSetup_xxx.msi 在使用镜像创建 云服务器 时,可自定义设定云服务器hostname、hosts文件以及用户名密码。 根据Windows操作系统不同位数,您需要下载不同版本Cloudbase-Init工具安装包。

    来自:帮助中心

    查看更多 →

  • 对于scan类的操作,GeminiDB Redis接口与开源Redis 5.0的返回值顺序为什么有差异

    对于scan类操作,GeminiDB Redis接口与开源Redis 5.0返回值顺序为什么有差异 开源Redis没有规定如下情况排序准则,故GeminiDB Redis接口返回顺序可能和开源Redis不一样,但两者均满足开源文档描述行为。 scan/hscan/sscan操作的返回值。

    来自:帮助中心

    查看更多 →

  • 使用开源Elasticsearch API导入数据到Elasticsearch

    页面。 选择待导入数据集群,单击操作列“Kibana”,登录Kibana。 单击左侧导航栏“Dev Tools”进入操作页面。 在Kibana操作页面,执行命令查看集群是否存在索引。 GET _cat/indices?v 当待导入数据集群已存在可用索引时,则不需要再创建索引,直接执行步骤7。

    来自:帮助中心

    查看更多 →

  • 主流开源大模型基于Standard适配PyTorch NPU推理指导(6.3.906)

    主流开源大模型基于Standard适配PyTorch NPU推理指导(6.3.906) 场景介绍 准备工作 在Notebook调试环境中部署推理服务 在推理生产环境中部署推理服务 推理精度测试 推理性能测试 推理模型量化 父主题: LLM大语言模型训练推理

    来自:帮助中心

    查看更多 →

  • 主流开源大模型基于Standard适配PyTorch NPU推理指导(6.3.907)

    主流开源大模型基于Standard适配PyTorch NPU推理指导(6.3.907) 场景介绍 准备工作 在Notebook调试环境中部署推理服务 在推理生产环境中部署推理服务 推理精度测试 推理性能测试 推理模型量化 附录:基于vLLM不同模型推理支持最小卡数和最大序列说明

    来自:帮助中心

    查看更多 →

  • 主流开源大模型基于Standard适配PyTorch NPU推理指导(6.3.908)

    主流开源大模型基于Standard适配PyTorch NPU推理指导(6.3.908) 场景介绍 准备工作 在Notebook调试环境中部署推理服务 在推理生产环境中部署推理服务 推理精度测试 推理性能测试 推理模型量化 附录:基于vLLM不同模型推理支持最小卡数和最大序列说明

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了