盘古大模型

 

盘古大模型致力于深耕行业,打造金融、政务、制造、矿山、气象、铁路等领域行业大模型和能力集,将行业知识know-how与大模型能力相结合,重塑千行百业,成为各组织、企业、个人的专家助手。

 
 

    盘古气候大模型 更多内容
  • 管理NLP大模型评测任务

    管理NLP模型评测任务 管理评测任务 在评测任务列表中,任务创建者可以对任务进行克隆(复制评测任务)、启动(重启评测任务)和删除操作。 登录ModelArts Studio模型开发平台,在“我的空间”模块,单击进入所需空间。 在左侧导航栏中选择“模型开发 > 模型评测 > 任务管理”,可进行如下操作:

    来自:帮助中心

    查看更多 →

  • 管理盘古工作空间成员

    加入用户组 添加盘古子用户至工作空间 在添加盘古子用户至工作空间前,请先完成创建盘古子用户。 登录ModelArts Studio模型开发平台。 进入需要添加子用户的空间,在空间内单击左侧导航栏“空间管理”,并进入“成员管理”页签。 如图,以添加子用户为“模型开发工程师”角色为

    来自:帮助中心

    查看更多 →

  • 概述

    概述 盘古模型整合华为云强大的计算和数据资源,将先进的AI算法集成在预训练模型中,打造出具有深度语义理解与生成能力的人工智能语言模型。可进行对话互动、回答问题、协助创作。 盘古模型在ModelArts Studio模型开发平台部署后,可以通过API调用推理接口。 表1 API清单

    来自:帮助中心

    查看更多 →

  • 计费概述

    计费概述 关于盘古模型的详细费用信息,敬请咨询华为云售前咨询,我们将为您提供专业的解答和支持。 通过阅读本文,您可以快速了解盘古模型的计费模式、计费项、续费、欠费等主要计费信息。 计费模式 盘古模型提供包周期计费、按需计费两种计费模式,以满足不同场景下的用户需求。关于计费模式的详细介绍请参见计费模式。

    来自:帮助中心

    查看更多 →

  • 数据保护技术

    数据保护技术 盘古模型服务通过多种数据保护手段和特性,保障存储在服务中的数据安全可靠。 表1 盘古模型的数据保护手段和特性 数据保护手段 简要说明 传输加密(HTTPS) 盘古服务使用HTTPS传输协议保证数据传输的安全性。 基于OBS提供的数据保护 基于OBS服务对用户的数

    来自:帮助中心

    查看更多 →

  • 使用API调用NLP大模型

    使用API调用NLP模型 预置模型或训练后的模型部署成功后,可以使用“文本对话”API实现模型调用。 表1 NLP模型API清单 API分类 API访问路径(URI) 文本对话 /v1/{project_id}/deployments/{deployment_id}/chat/completions

    来自:帮助中心

    查看更多 →

  • LLM大语言模型训练推理

    LLM语言模型训练推理 在ModelArts Studio基于Qwen2-7B模型实现新闻自动分类 主流开源模型基于Lite Server适配Ascend-vLLM PyTorch NPU推理指导(6.5.901) 主流开源模型基于Lite Server适配ModelLink

    来自:帮助中心

    查看更多 →

  • 创建NLP大模型评测数据集

    创建NLP模型评测数据集 NLP模型支持人工评测与自动评测,在执行模型评测任务前,需创建评测数据集。 评测数据集的创建步骤与训练数据集一致,本章节仅做简单介绍,详细步骤请参见使用数据工程构建NLP模型数据集。 登录ModelArts Studio平台,进入所需空间。 在左侧导航栏中选择“数据工程

    来自:帮助中心

    查看更多 →

  • 背景信息

    背景信息 企业数智员工解决方案是基于盘古语言模型开发。盘古模型致力于深耕行业,打造金融、政务、制造、矿山、气象、铁路等领域行业大模型和能力集,将行业知识know-how与模型能力相结合,重塑千行百业,成为各组织、企业、个人的专家助手。 在数智员工的开发过程中,我们使用了大规

    来自:帮助中心

    查看更多 →

  • 在MaaS应用实践中心查看应用解决方案

    企业搜索 服务、盘古数字人大脑和Dify,为具体的客户应用场景提供一整套解决方案。 KooSearch 企业搜索服务:基于在MaaS开源模型部署的模型API,搭建企业专属方案、LLM驱动的语义搜索、多模态搜索增强。 盘古数字人大脑:基于在MaaS开源模型部署的模型API,升级智能对话解决方案,含智能客服、数字人。

    来自:帮助中心

    查看更多 →

  • 统计NLP大模型调用信息

    统计NLP模型调用信息 针对调用的模型,平台提供了统一的管理功能。 登录ModelArts Studio模型开发平台,在“我的空间”模块,单击进入所需空间。 单击左侧导航栏“调用统计”,选择“NLP”页签。 选择当前调用的NLP模型,可以按照不同时间跨度查看当前模型的调用总

    来自:帮助中心

    查看更多 →

  • 管理NLP大模型部署任务

    管理NLP模型部署任务 模型更新 完成创建NLP模型部署任务后,可以替换已部署的模型并升级配置,具体步骤如下: 登录ModelArts Studio模型开发平台,在“我的空间”模块,单击进入所需空间。 在左侧导航栏中选择“模型开发 > 模型部署”,单击模型名称,进入模型详情页面。

    来自:帮助中心

    查看更多 →

  • 创建NLP大模型评测任务

    创建NLP模型评测任务 创建NLP模型评测任务前,请确保已完成创建NLP模型评测数据集操作。 预训练的NLP模型不支持评测。 创建NLP模型自动评测任务 创建NLP模型自动评测任务步骤如下: 登录ModelArts Studio模型开发平台,在“我的空间”模块,单击进入所需空间。

    来自:帮助中心

    查看更多 →

  • 大模型开发基本流程介绍

    模型开发基本流程介绍 模型(Large Models)通常指的是具有海量参数和复杂结构的深度学习模型,广泛应用于 自然语言处理 (NLP)等领域。开发一个模型的流程可以分为以下几个主要步骤: 数据集准备:模型的性能往往依赖于大量的训练数据。因此,数据集准备是模型开发的第一步。

    来自:帮助中心

    查看更多 →

  • 构建部署任务

    区域中期海洋智能预测模型部署参数说明 参数分类 部署参数 参数说明 部署配置 模型来源 选择“盘古模型模型类型 选择“科学计算模型”。 场景 本案例中选择“区域中期海洋智能预测”。 部署模型 从资产中选择需要部署的模型。 部署区域中期海洋智能预测服务需要同时选择“区域中期海洋智能预测”和“全球中期海洋智能预测”两个模型。

    来自:帮助中心

    查看更多 →

  • 构建流程

    为确保有可用的NLP模型,请先完成NLP模型的部署操作,详见《用户指南》“开发盘古NLP模型 > 部署NLP模型 > 创建NLP模型部署任务”。 本实践将使用华为云文本翻译API,请先完成创建多语言文本翻译插件操作。 为使该实践效果更优,建议部署盘古NLP模型的N4系列模型。 操作流程

    来自:帮助中心

    查看更多 →

  • 什么是盘古助手

    多语言支持:同时支持中英文场景。 父主题: 华为云Astro屏应用盘古助手

    来自:帮助中心

    查看更多 →

  • 进入盘古助手

    进入盘古助手 从数据中心进入盘古助手 参考登录华为云Astro屏应用界面中操作,登录华为云Astro屏应用界面。 在顶部菜单栏中,选择“数据中心”。 在左侧导航栏中,选择“转换器 > 全部”,参考新建转换器中操作,创建一个转换器。 在修改转换器页面,单击图标,即可进入盘古助手。

    来自:帮助中心

    查看更多 →

  • 使用盘古助手

    在页面中单击,进入盘古助手。 在盘古助手中,单击“快捷指令”,选择“数据统计”。 在下方的数据统计输入框中进行提问,如“帮我统计出语文科目的平均分”,单击“发送”。 盘古助手会根据您的提问,筛选出当前数据源测试数据中符合您要求的数据。 图4 数据统计 父主题: 华为云Astro屏应用盘古助手

    来自:帮助中心

    查看更多 →

  • 提示词工程类

    提示词工程类 如何利用提示词提高大模型在难度较高推理任务中的准确率 如何让模型按指定风格或格式回复 如何分析模型输出错误回答的根因 为什么其他模型适用的提示词在盘古模型上效果不佳 如何判断任务场景应通过调整提示词还是场景微调解决

    来自:帮助中心

    查看更多 →

  • 创建科学计算大模型部署任务

    科学计算模型部署参数说明 参数分类 部署参数 参数说明 部署配置 模型来源 选择“盘古模型”。 模型类型 选择“科学计算模型”。 场景 选择模型场景,分为“全球中期天气要素预测”、“全球中期降水预测”、“全球中期海洋智能预测”、“区域中期海洋智能预测”、“全球中期海洋生态智能预测”、“全球中期海浪智能预测”。

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了