政府及公共事业解决方案

在推进“放管服”改革,优化营商环境,科技兴警等工作中,政府积极探索如何将云计算,大数据、人工智能和区块链等新技术与政府、公共事业融合发展。通过全栈专属云,微服务,人工智能和大数据等服务,提供智慧交通管控,视频上云,天地图服务,气象短临预报,遥感数据共享等应用服务,帮助政府及公共事业的服务能力向移动化、精准化、智能化发展

专业咨询服务 ∙ 助您上云无忧
专属顾问会在1个工作日内联系您
 请填写联系人
 请填写真实电话
提交

    盘古气象大模型 更多内容
  • 如何评估微调后的盘古大模型是否正常

    如何评估微调后的盘古模型是否正常 评估模型效果的方法有很多,通常可以从以下几个方面来评估模型训练效果: Loss曲线:通过Loss曲线的变化趋势来评估训练效果,确认训练过程是否出现了过拟合或欠拟合等异常情况。 模型评估:使用平台的“模型评估”功能,“模型评估”将对您之前上传的测

    来自:帮助中心

    查看更多 →

  • 如何调整推理参数,使盘古大模型效果最优

    如何调整推理参数,使盘古模型效果最优 推理参数(解码参数)是一组用于控制模型生成预测结果的参数,其可以用于控制模型生成结果的样式,如长度、随机性、创造性、多样性、准确性和丰富度等等。 当前,平台支持的推理参数包括:温度、核采样以及话题重复度控制,如下提供了这些推理参数的建议值和说明,供您参考:

    来自:帮助中心

    查看更多 →

  • 如何调整训练参数,使盘古大模型效果最优

    如何调整训练参数,使盘古模型效果最优 模型微调参数的选择没有标准答案,不同的场景,有不同的调整策略。一般微调参数的影响会受到以下几个因素的影响: 目标任务的难度:如果目标任务的难度较低,模型能较容易的学习知识,那么少量的训练轮数就能达到较好的效果。反之,若任务较复杂,那么可能就需要更多的训练轮数。

    来自:帮助中心

    查看更多 →

  • 使用盘古预置NLP大模型进行文本对话

    使用盘古预置NLP模型进行文本对话 场景描述 此示例演示了如何使用盘古能力调测功能与盘古NLP模型进行对话问答。您将学习如何通过调试模型超参数,实现智能化对话问答功能。 准备工作 请确保您有预置的NLP模型,并已完成模型的部署操作,详见《用户指南》“开发盘古NLP模型 >

    来自:帮助中心

    查看更多 →

  • 气象预警

    气象预警 根据城市和日期查询发布的灾害预警信息。包含“气象预警查询”执行动作。 连接参数 气象预警连接器使用APIkey认证,创建气象预警连接时连接参数说明如表1所示。 表1 连接参数说明 名称 必填 说明 示例值/默认值 连接名称 是 设置连接名称。 气象预警 描述 否 对于连接的信息描述说明。

    来自:帮助中心

    查看更多 →

  • 数据工程介绍

    数据工程是ModelArts Studio模型开发平台为用户提供的一站式数据处理与管理功能,旨在通过系统化的数据获取、加工、标注、评估和发布等过程,确保数据能够高效、准确地为模型的训练提供支持,帮助用户高效管理和处理数据,提升数据质量和处理效率,为模型开发提供坚实的数据基础。 数据工程所包含的具体功能如下:

    来自:帮助中心

    查看更多 →

  • 创建气象类数据集加工任务

    创建气象类数据集加工任务 创建气象类数据集加工任务前,请先完成“原始数据集”的创建与上线,具体步骤请参见导入数据至盘古平台。 创建气象类数据集加工任务步骤如下: 登录ModelArts Studio模型开发平台,进入所需操作空间。 图1 进入操作空间 在左侧导航栏中选择“数据工程

    来自:帮助中心

    查看更多 →

  • NLP大模型

    NLP模型 文本对话 父主题: API

    来自:帮助中心

    查看更多 →

  • 为什么多轮问答场景的盘古大模型微调效果不好

    还是不行"} 数据质量:若数据格式没有问题,仍然发现模型效果不好,您可以根据具体问题针对性的提升您的数据质量。比如,随着对话轮数的增加,模型出现了遗忘,可以检查构造的训练数据中轮数是否普遍较少,建议根据实际情况增加数据中的对话轮数。 父主题: 模型微调训练类问题

    来自:帮助中心

    查看更多 →

  • 如何对盘古大模型的安全性展开评估和防护

    如何对盘古模型的安全性展开评估和防护 盘古模型的安全性主要从以下方面考虑: 数据安全和隐私保护:模型涉及大量训练数据,这些数据是重要资产。为确保数据安全,需在数据和模型训练的全生命周期内,包括数据提取、加工、传输、训练、推理和删除的各个环节,提供防篡改、数据隐私保护、加密、

    来自:帮助中心

    查看更多 →

  • 数据量足够,为什么盘古大模型微调效果仍然不好

    数据量足够,为什么盘古模型微调效果仍然不好 这种情况可能是由于以下原因导致的,建议您排查: 数据质量:请检查训练数据的质量,若训练样本和目标任务不一致或者分布差异较大、样本中存在异常数据、样本的多样性较差,都将影响模型训练的效果,建议提升您的数据质量。 父主题: 模型微调训练类问题

    来自:帮助中心

    查看更多 →

  • 为什么微调后的盘古大模型总是重复相同的回答

    为什么微调后的盘古模型总是重复相同的回答 当您将微调的模型部署以后,输入一个与目标任务同属的问题,模型生成了复读机式的结果,即回答中反复出现某一句话或某几句话。这种情况可能是由于以下几个原因导致的,建议您依次排查: 推理参数设置:请检查推理参数中的“话题重复度控制”或“温度”或

    来自:帮助中心

    查看更多 →

  • 科学计算大模型

    科学计算模型 气象/降水模型 海洋模型 父主题: API

    来自:帮助中心

    查看更多 →

  • 训练NLP大模型

    训练NLP模型 NLP模型训练流程与选择建议 创建NLP模型训练任务 查看NLP模型训练状态与指标 发布训练后的NLP模型 管理NLP模型训练任务 NLP模型训练常见报错与解决方案 父主题: 开发盘古NLP模型

    来自:帮助中心

    查看更多 →

  • 压缩NLP大模型

    压缩NLP模型 模型在部署前,通过模型压缩可以降低推理显存占用,节省推理资源提高推理性能。当前仅支持对NLP模型进行压缩。采用的压缩方式是INT8,INT8量化压缩可以显著减小模型的存储大小,降低功耗,并提高计算速度。 登录ModelArts Studio模型开发平台,进入所需操作空间。

    来自:帮助中心

    查看更多 →

  • 调用NLP大模型

    调用NLP模型 使用“能力调测”调用NLP模型 使用API调用NLP模型 统计模型调用信息 父主题: 开发盘古NLP模型

    来自:帮助中心

    查看更多 →

  • 部署NLP大模型

    部署NLP模型 创建NLP模型部署任务 查看NLP模型部署任务详情 管理NLP模型部署任务 父主题: 开发盘古NLP模型

    来自:帮助中心

    查看更多 →

  • 成长地图

    如何对盘古模型的安全性展开评估和防护? 训练智能客服系统模型需考虑哪些方面? 如何调整训练参数,使盘古模型效果最优? 如何判断盘古模型训练状态是否正常? 为什么微调后的盘古模型总是重复相同的回答? 盘古模型是否可以自定义人设? 更多 模型概念类 如何对盘古模型的安全性展开评估和防护?

    来自:帮助中心

    查看更多 →

  • 大模型微调训练类问题

    模型微调训练类问题 无监督领域知识数据量无法支持增量预训练,如何进行模型学习 如何调整训练参数,使盘古模型效果最优 如何判断盘古模型训练状态是否正常 如何评估微调后的盘古模型是否正常 如何调整推理参数,使盘古模型效果最优 为什么微调后的盘古模型总是重复相同的回答 为什么微调后的盘古大模型的回答中会出现乱码

    来自:帮助中心

    查看更多 →

  • 功能总览

    理性能和跨平台迁移工具,模型开发工具链能够保障模型在不同环境中的高效应用。 支持区域: 西南-贵阳一 开发盘古NLP模型 开发盘古科学计算模型 压缩盘古模型 部署盘古模型 调用盘古模型 迁移盘古模型 应用开发工具 链 应用开发工具链是盘古模型平台的关键模块,支持提示词工程和智能Agent应用创建。

    来自:帮助中心

    查看更多 →

  • 为什么微调后的盘古大模型的回答会异常中断

    为什么微调后的盘古模型的回答会异常中断 当您将微调的模型部署以后,输入一个与目标任务同属的问题,模型生成的结果不完整,出现了异常截断。这种情况可能是由于以下几个原因导致的,建议您依次排查: 推理参数设置:请检查推理参数中的“最大Token限制”参数的设置,适当增加该参数的值,可

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了