网络
虚拟私有云 VPC
弹性公网IP EIP
弹性负载均衡 ELB
NAT网关 NAT
云专线 DC
虚拟专用网络 VPN
云连接 CC
VPC终端节点 VPCEP
企业路由器 ER
企业交换机 ESW
全球加速 GA
企业连接 EC
云原生应用网络 ANC
安全与合规
安全技术与应用
Web应用防火墙 WAF
企业主机安全 HSS
云防火墙 CFW
安全云脑 SecMaster
DDoS防护 AAD
数据加密服务 DEW
数据库安全服务 DBSS
云堡垒机 CBH
数据安全中心 DSC
云证书管理服务 CCM
威胁检测服务 MTD
态势感知 SA
认证测试中心 CTC
边缘安全 EdgeSec
应用中间件
微服务引擎 CSE
分布式消息服务Kafka版
分布式消息服务RabbitMQ版
分布式消息服务RocketMQ版
API网关 APIG
分布式缓存服务 DCS
多活高可用服务 MAS
事件网格 EG
管理与监管
统一身份认证服务 IAM
消息通知服务 SMN
云监控服务 CES
应用运维管理 AOM
应用性能管理 APM
云日志服务 LTS
云审计服务 CTS
标签管理服务 TMS
配置审计 Config
应用身份管理服务 OneAccess
资源访问管理 RAM
组织 Organizations
资源编排服务 RFS
优化顾问 OA
IAM 身份中心
云运维中心 COC
资源治理中心 RGC
解决方案
高性能计算 HPC
SAP
混合云灾备
开天工业工作台 MIW
Haydn解决方案工厂
数字化诊断治理专家服务
云生态
云商店
合作伙伴中心
华为云开发者学堂
华为云慧通差旅
开发与运维
软件开发生产线 CodeArts
需求管理 CodeArts Req
流水线 CodeArts Pipeline
代码检查 CodeArts Check
编译构建 CodeArts Build
部署 CodeArts Deploy
测试计划 CodeArts TestPlan
制品仓库 CodeArts Artifact
移动应用测试 MobileAPPTest
CodeArts IDE Online
开源镜像站 Mirrors
性能测试 CodeArts PerfTest
应用管理与运维平台 ServiceStage
云应用引擎 CAE
开源治理服务 CodeArts Governance
华为云Astro轻应用
CodeArts IDE
Astro工作流 AstroFlow
代码托管 CodeArts Repo
漏洞管理服务 CodeArts Inspector
联接 CodeArtsLink
软件建模 CodeArts Modeling
Astro企业应用 AstroPro
CodeArts盘古助手
华为云Astro大屏应用
计算
弹性云服务器 ECS
Flexus云服务
裸金属服务器 BMS
云手机服务器 CPH
专属主机 DeH
弹性伸缩 AS
镜像服务 IMS
函数工作流 FunctionGraph
云耀云服务器(旧版)
VR云渲游平台 CVR
Huawei Cloud EulerOS
云化数据中心 CloudDC
网络
虚拟私有云 VPC
弹性公网IP EIP
弹性负载均衡 ELB
NAT网关 NAT
云专线 DC
虚拟专用网络 VPN
云连接 CC
VPC终端节点 VPCEP
企业路由器 ER
企业交换机 ESW
全球加速 GA
企业连接 EC
云原生应用网络 ANC
CDN与智能边缘
内容分发网络 CDN
智能边缘云 IEC
智能边缘平台 IEF
CloudPond云服务
安全与合规
安全技术与应用
Web应用防火墙 WAF
企业主机安全 HSS
云防火墙 CFW
安全云脑 SecMaster
DDoS防护 AAD
数据加密服务 DEW
数据库安全服务 DBSS
云堡垒机 CBH
数据安全中心 DSC
云证书管理服务 CCM
威胁检测服务 MTD
态势感知 SA
认证测试中心 CTC
边缘安全 EdgeSec
大数据
MapReduce服务 MRS
数据湖探索 DLI
表格存储服务 CloudTable
可信智能计算服务 TICS
推荐系统 RES
云搜索服务 CSS
数据可视化 DLV
数据接入服务 DIS
数据仓库服务 GaussDB(DWS)
数据治理中心 DataArts Studio
湖仓构建 LakeFormation
智能数据洞察 DataArts Insight
应用中间件
微服务引擎 CSE
分布式消息服务Kafka版
分布式消息服务RabbitMQ版
分布式消息服务RocketMQ版
API网关 APIG
分布式缓存服务 DCS
多活高可用服务 MAS
事件网格 EG
开天aPaaS
应用平台 AppStage
开天企业工作台 MSSE
开天集成工作台 MSSI
API中心 API Hub
云消息服务 KooMessage
交换数据空间 EDS
云地图服务 KooMap
云手机服务 KooPhone
组织成员账号 OrgID
云空间服务 KooDrive
管理与监管
统一身份认证服务 IAM
消息通知服务 SMN
云监控服务 CES
应用运维管理 AOM
应用性能管理 APM
云日志服务 LTS
云审计服务 CTS
标签管理服务 TMS
配置审计 Config
应用身份管理服务 OneAccess
资源访问管理 RAM
组织 Organizations
资源编排服务 RFS
优化顾问 OA
IAM 身份中心
云运维中心 COC
资源治理中心 RGC
区块链
区块链服务 BCS
数字资产链 DAC
华为云区块链引擎服务 HBS
解决方案
高性能计算 HPC
SAP
混合云灾备
开天工业工作台 MIW
Haydn解决方案工厂
数字化诊断治理专家服务
价格
成本优化最佳实践
专属云商业逻辑
云生态
云商店
合作伙伴中心
华为云开发者学堂
华为云慧通差旅
其他
管理控制台
消息中心
产品价格详情
系统权限
客户关联华为云合作伙伴须知
公共问题
宽限期保留期
奖励推广计划
活动
云服务信任体系能力说明
开发与运维
软件开发生产线 CodeArts
需求管理 CodeArts Req
流水线 CodeArts Pipeline
代码检查 CodeArts Check
编译构建 CodeArts Build
部署 CodeArts Deploy
测试计划 CodeArts TestPlan
制品仓库 CodeArts Artifact
移动应用测试 MobileAPPTest
CodeArts IDE Online
开源镜像站 Mirrors
性能测试 CodeArts PerfTest
应用管理与运维平台 ServiceStage
云应用引擎 CAE
开源治理服务 CodeArts Governance
华为云Astro轻应用
CodeArts IDE
Astro工作流 AstroFlow
代码托管 CodeArts Repo
漏洞管理服务 CodeArts Inspector
联接 CodeArtsLink
软件建模 CodeArts Modeling
Astro企业应用 AstroPro
CodeArts盘古助手
华为云Astro大屏应用
存储
对象存储服务 OBS
云硬盘 EVS
云备份 CBR
高性能弹性文件服务 SFS Turbo
弹性文件服务 SFS
存储容灾服务 SDRS
云硬盘备份 VBS
云服务器备份 CSBS
数据快递服务 DES
云存储网关 CSG
专属分布式存储服务 DSS
数据工坊 DWR
地图数据 MapDS
键值存储服务 KVS
容器
云容器引擎 CCE
云容器实例 CCI
容器镜像服务 SWR
云原生服务中心 OSC
应用服务网格 ASM
华为云UCS
数据库
云数据库 RDS
数据复制服务 DRS
文档数据库服务 DDS
分布式数据库中间件 DDM
云数据库 GaussDB
云数据库 GeminiDB
数据管理服务 DAS
数据库和应用迁移 UGO
云数据库 TaurusDB
人工智能
AI开发平台ModelArts
华为HiLens
图引擎服务 GES
图像识别 Image
文字识别 OCR
自然语言处理 NLP
内容审核 Moderation
图像搜索 ImageSearch
医疗智能体 EIHealth
企业级AI应用开发专业套件 ModelArts Pro
人脸识别服务 FRS
对话机器人服务 CBS
语音交互服务 SIS
人证核身服务 IVS
视频智能分析服务 VIAS
城市智能体
自动驾驶云服务 Octopus
盘古大模型 PanguLargeModels
IoT物联网
设备接入 IoTDA
全球SIM联接 GSL
IoT数据分析 IoTA
路网数字化服务 DRIS
IoT边缘 IoTEdge
设备发放 IoTDP
企业应用
域名注册服务 Domains
云解析服务 DNS
企业门户 EWP
ICP备案
商标注册
华为云WeLink
华为云会议 Meeting
隐私保护通话 PrivateNumber
语音通话 VoiceCall
消息&短信 MSGSMS
云管理网络
SD-WAN 云服务
边缘数据中心管理 EDCM
云桌面 Workspace
应用与数据集成平台 ROMA Connect
ROMA资产中心 ROMA Exchange
API全生命周期管理 ROMA API
政企自服务管理 ESM
视频
实时音视频 SparkRTC
视频直播 Live
视频点播 VOD
媒体处理 MPC
视频接入服务 VIS
数字内容生产线 MetaStudio
迁移
主机迁移服务 SMS
对象存储迁移服务 OMS
云数据迁移 CDM
迁移中心 MGC
专属云
专属计算集群 DCC
开发者工具
SDK开发指南
API签名指南
DevStar
华为云命令行工具服务 KooCLI
Huawei Cloud Toolkit
CodeArts API
云化转型
云架构中心
云采用框架
用户服务
账号中心
费用中心
成本中心
资源中心
企业管理
工单管理
客户运营能力
国际站常见问题
支持计划
专业服务
合作伙伴支持计划
我的凭证
华为云公共事业服务云平台
工业软件
工业数字模型驱动引擎
硬件开发工具链平台云服务
工业数据转换引擎云服务
文档首页/ AI开发平台ModelArts/ 最佳实践/ LLM大语言模型训练推理/ 在ModelArts Studio基于Qwen2-7B模型实现新闻自动分类

在ModelArts Studio基于Qwen2-7B模型实现新闻自动分类

更新时间:2025-02-21 GMT+08:00
分享
说明:

仅“华东二”和“西南-贵阳一”区域支持使用ModelArts Studio大模型即服务平台(MaaS)。

应用场景

在数字化时代,新闻的生成与传播速度不断刷新记录。在ModelArts Studio大模型即服务平台(下面简称为MaaS),使用Qwen2-7B模型可以实现新闻自动分类,能够高效处理和分类大量新闻内容。

该解决方案可以应用于如下场景:

  • 新闻门户网站: 自动将新闻内容归类到相应板块,如科技、体育或国际新闻,以提升用户体验和内容检索效率。
  • 社交媒体平台: 对用户分享的新闻链接进行智能分类,帮助用户迅速定位到感兴趣的话题。
  • 内容推荐系统: 根据用户的阅读偏好和历史行为,智能推荐相关新闻,增强用户粘性和满意度。
  • 新闻分析工具: 为分析师提供自动分类的新闻数据,便于进行市场趋势和热点分析。

方案流程

图1 方案实现流程
  1. 准备数据集:获取新闻数据集,并上传到OBS。
  2. 创建模型:选择Qwen2-7B基础模型,使用推荐权重创建个人专属模型。
  3. 调优模型:使用不同的调优参数去训练模型。
  4. 部署模型服务:将调优后的模型部署成模型服务。
  5. 使用模型服务:在MaaS体验模型服务,测试推理结果。
  6. 结果分析:分析模型的调优结果和推理结果,对比新闻分类效果。

方案优势

  • 高准确性:利用模型强大的语义理解能力,系统能够准确识别新闻内容的主题和关键词,实现高准确率的自动分类。
  • 快速响应:系统能够实时处理新闻内容,快速完成分类,满足新闻时效性的要求。
  • 可扩展性:随着模型的不断训练和优化,系统能够适应不断变化的新闻内容和分类需求。
  • 降低人力成本:减少人工分类的工作量,降低人力成本,提高工作效率。

操作步骤

  1. 准备数据集。获取新闻数据集,并上传到OBS。

    1. 下载新闻数据集。

      本文原始数据集来源:https://github.com/aceimnorstuvwxz/toutiao-text-classfication-dataset

      本文实验用数据集基于原始数据集处理而来,进行了简单的采样、清晰和prompt工程。

      实验数据集获取地址:https://maas-operations.obs.myhuaweicloud.com/Sample-Dataset/maas_demo_news.jsonl

      该实验数据集的总数据量5281条,随机分为训练集5120条和测试集161条。

      实验数据集文件“maas_demo_news.jsonl”的内容格式如下。
      {"conversation_id": 1, "chat": {"turn_1": {"Human":"text","MOSS":"text"},"turn_2": {"Human":"text","MOSS":"text"}}}

      “conversation_id”是样本编号,“chat”后面是多轮对话的内容,“turn_n”表示是第n次对话,每次对话都有输入(对应Human角色)和输出(对应MOSS角色)。其中Human和MOSS仅用于角色区分,模型训练的内容只有text指代的文本。

    2. 将jsonl格式的数据集文件上传到“华东二”区域的OBS桶中,创建OBS桶和上传文件的操作指导请参见OBS控制台快速入门。本文以“/maas-test/news/maas_demo_news.jsonl”OBS路径为例。

  2. 进入ModelArts Studio大模型即服务平台。

    1. 登录ModelArts管理控制台。
    2. 在左侧导航栏中,选择“ModelArts Studio”进入ModelArts Studio大模型即服务平台。

  3. 创建Qwen2-7B模型。

    1. 在ModelArts Studio左侧导航栏中,选择“我的模型”进入模型列表。
    2. 在模型列表页,单击“创建模型”弹出创建模型页面。
    3. “创建模型”页面,配置参数。
      图2 创建模型
      表1 创建模型

      参数

      说明

      取值样例

      来源模型

      单击“选择基础模型”,在弹窗中选择模型,单击“确定”

      Qwen2-7B

      模型名称

      自定义模型名称。

      Qwen2-7B_template

      描述

      自定义模型简介。

      -

      权重设置与词表

      默认选择“使用推荐权重”,支持选择“自定义权重”

      使用平台推荐的权重文件,可提高模型的训练、压缩、部署和调优等服务的使用效率。

      权重文件指的是模型的参数集合。

      使用推荐权重

    4. 参数配置完成后,单击“创建”,创建个人专属模型。
    5. 在模型列表,单击模型名称可以进入详情页查看模型详细信息和任务。
      当模型“状态”变成“创建成功”时,表示模型创建完成。
      图3 查看我的模型状态

  4. 调优模型,使用6种不同的调优参数去训练模型。

    1. 模型创建成功后,在“我的模型”列表,单击操作列的“调优”
    2. “创建模型调优任务”页面,配置参数。

      由于需要分析模型调优效果,需要创建多个调优任务,不同调优任务的参数值配置请参见表2表3

      表2 创建调优任务

      参数

      说明

      取值样例

      任务设置

      任务名称

      自定义调优任务名称。

      参见表3

      描述

      自定义调优任务简介。

      -

      模型设置

      来源模型

      当从“我的模型”列表进入创建调优作业页面时,此处默认呈现选择的模型。

      Qwen2-7B_template

      调优类型

      • 全参微调:直接在模型上训练,影响模型全量参数的微调训练,效果较好,收敛速度较慢,训练时间较长。
      • LoRA微调:冻结原模型,通过往模型中加入额外的网络层,并只训练这些新增的网络层参数,效果接近或略差于全参训练,收敛速度快,训练时间短。
      • 增量预训练:在现有预训练模型基础上,利用新数据或特定领域的数据增强模型的能力和性能。允许模型逐步适应新的任务和数据,避免过拟合和欠拟合问题,进一步提高模型的泛化能力。

      参见表3

      调优后模型名称

      设置调优后产生的新模型的名称。

      参见表3

      调优后模型权重存放路径

      选择调优后模型权重文件的OBS存放路径。训练后将在指定路径下自动创建以作业ID命名的新文件夹进行权重存储。

      /maas-test/news/out

      数据设置

      选择数据集格式

      支持选择MOSS、Alpaca和ShareGPT。训练数据需要按照对应格式,上传符合规范的数据集,以更好完成训练任务。关于数据集示例,请参见支持的数据集格式

      说明:
      如果数据集选择错误,您可以通过以下方式查看日志详情。
      • 登录ModelArts Studio控制台,在“模型调优”页面单击目标作业,在作业详情的日志页签查看详情。
      • 登录ModelArts控制台,在模型训练 > 训练作业页面单击目标作业,在日志页签查看详情。

      MOSS

      添加数据集

      选择存放训练数据集的OBS路径,必须选择到1上传的jsonl文件。

      /maas-test/news/maas_demo_news.jsonl

      超参设置

      数据条数

      输入数据集中的总数据条数。

      1000

      迭代轮次/Epoch

      训练过程中模型遍历整个数据集的次数。不同量级数据集的建议值:百量集4~8;千量集2~4;更大数量级1~2。

      4

      迭代步数/Iterations

      计算得出的模型参数/权重更新的次数。在调优过程中,每一个Iterations会消耗32条训练数据。

      参见表3

      学习率/learning_rate

      设置每个迭代步数(iteration)模型参数/权重更新的速率。学习率设置得过高会导致模型难以收敛,过低则会导致模型收敛速度过慢。

      参见表3

      Checkpoint保存个数

      训练过程中保存Checkpoint的个数。最小值为1,最大值为“迭代步数/Iterations”的参数值,不超过10。Checkpoint会自动存储到“调优后模型权重保存路径”的OBS路径下。

      1

      资源设置

      资源池类型

      资源池分为公共资源池与专属资源池。

      • 公共资源池供所有租户共享使用。
      • 专属资源池需单独创建,不与其他租户共享。

      公共资源池

      规格

      选择规格,规格中描述了服务器类型、型号等信息,仅显示模型支持的资源。

      xxx

      计算节点个数

      当计算节点个数大于1,将启动多节点分布式训练。详细信息,请参见分布式训练功能介绍

      1

      更多选项

      永久保存日志

      选择是否打开“永久保存日志”开关。

      关闭

      事件通知

      选择是否打开“事件通知”开关。

      关闭

      自动停止

      当使用付费资源时,可以选择是否打开“自动停止”开关。

      关闭

      自动重启

      选择是否打开“自动重启”开关。

      关闭

      表3 多个调优任务的参数配置

      序号

      任务名称

      选择调优类型

      调优后的模型名称

      迭代步数/Iterations

      学习率/learning_rate

      1

      job-lora-01

      LoRA微调

      Qwen2-7B_01-lora

      160

      3.00E-05

      2

      job-lora-02

      LoRA微调

      Qwen2-7B_02-lora

      480

      3.00E-05

      3

      job-lora-03

      LoRA微调

      Qwen2-7B_03-lora

      800

      3.00E-04

      4

      job-sft-01

      全参微调

      Qwen2-7B_01-sft

      160

      3.00E-05

      5

      job-sft-02

      全参微调

      Qwen2-7B_02-sft

      800

      3.00E-05

      6

      job-sft-03

      全参微调

      Qwen2-7B_03-sft

      160

      3.00E-06

    3. 参数配置完成后,单击“提交”

      “资源池类型”选择“公共资源池”时,会出现“计费提醒”对话框,请您仔细阅读预计调优运行时间和预计消耗费用信息,然后单击“确定”,创建调优作业。该预估费用不包含OBS存储费用。预估费用基于目录价和预估时长计算,估算存在波动性,最终以实际发生为准。

      “模型调优”列表中,当模型调优作业的“状态”变成“已完成”时,表示模型调优完成。

  5. 部署模型服务。将原始模型“Qwen2-7B_template”和调优后获得的6种模型都部署成模型服务。

    1. 在ModelArts Studio左侧导航栏中,选择“模型部署”
    2. “模型部署”页面,单击“我的服务”页签,在右上角单击“部署模型服务”进入部署页面,完成创建配置。
      图4 资源设置
      表4 部署模型服务

      参数

      说明

      取值样例

      服务设置

      服务名称

      自定义模型服务的名称。

      参见表5

      描述

      自定义部署模型服务的简介。

      -

      模型设置

      部署模型

      单击“选择模型”,从“我的模型”列表中选择需要部署的模型。

      参见表5

      资源设置

      资源池类型

      资源池分为公共资源池与专属资源池。

      • 公共资源池供所有租户共享使用。
      • 专属资源池需单独创建,不与其他租户共享。

      公共资源池

      实例规格

      选择实例规格,规格中描述了服务器类型、型号等信息。

      xxx

      流量限制(QPS)

      设置待部署模型的流量限制QPS。

      3

      实例数

      设置服务器个数。

      推荐实例数 = 流量限制 ÷ 推荐的单实例流量限制

      1

      更多选项

      内容审核

      选择是否打开内容审核,默认启用。启用此能力可阻止模型推理中有害内容的输入输出,但可能会对接口性能产生较大影响。

      打开

      事件通知

      选择是否打开“事件通知”开关。

      关闭

      自动停止

      当使用付费资源时,可以选择是否打开“自动停止”开关。

      关闭

      表5 多个部署服务的参数配置

      序号

      服务名称

      部署模型

      1

      service--lora-01

      Qwen2-7B_01-lora

      2

      service--lora-02

      Qwen2-7B_02-lora

      3

      service--lora-03

      Qwen2-7B_03-lora

      4

      service--sft-01

      Qwen2-7B_01-sft

      5

      service--sft-02

      Qwen2-7B_02-sft

      6

      service--sft-03

      Qwen2-7B_03-sft

      7

      service-00

      Qwen2-7B_template

    3. 参数配置完成后,单击“提交”

      “资源池类型”选择“公共资源池”时,会出现“计费提醒”对话框,请您仔细阅读预估费用信息,然后单击“确定”,创建部署任务。模型部署会基于资源占用时长进行计费。服务状态为运行中时会产生费用,最终实际费用以账单为准。

      在“我的服务”列表中,当模型部署服务的“状态”变成“运行中”时,表示模型部署完成。

  6. 使用模型服务:在MaaS体验部署完成的7个模型服务,测试推理结果。

    1. 在ModelArts Studio左侧导航栏中,选择“模型体验”进入体验页面。
    2. “模型体验”页面,单击“请选择服务”,在模型列表中选择模型服务,单击“确定”
    3. “模型体验”页面右上角,单击“参数设置”,按需拖动或直接输入数值配置推理参数。单击“恢复默认”可以将参数值调回默认值。
      图5 设置推理参数
      表6 参数设置

      参数

      说明

      取值样例

      温度/Temperature

      设置推理温度。

      • 数值较高,输出结果更加随机。
      • 数值较低,输出结果更加集中和确定。

      1

      核采样/top_p

      设置推理核采样。调整输出文本的多样性,数值越大,生成文本的多样性就越高。

      1

      top_k

      选择在模型的输出结果中选择概率最高的前K个结果。

      20

    4. 在对话框中输入问题,查看返回结果。

      输入的问题需要添加如下prompt,其中“{title}”要换成待判断的新闻标题,“{key_word}”要换成待判断的新闻关键词。

      你是一位资深的新闻从业者,现在需要依据新闻标题和关键词对新闻进行分类。接下来你会收到<标题>和<关键词>,给出的分类结果需要严格按照以下要求:
      1.使用json格式输出{"分类1":"中文标签","分类2":"英文标签"}
      2.中文标签共15个,可选标签如下:民生、文化、娱乐、体育、财经、房产、汽车、教育、科技、旅游、国际、证券、农业、电竞等
      3.英文标签共15个,可选标签如下:news_story、news_culture、news_entertainment、news_sports、news_finance、news_house、news_car、news_edu、news_tech、news_military、news_travel、news_world、stock、news_agriculture、news_game
      
      示例:
      <标题>:布达拉宫夜景,有缘人才能看见!太美了!
      <关键词>:夜景,布达拉宫
      <输出>:{"分类1":"旅游","分类2":"news_travel"}
      
      现在请你判断以下新闻:
      <标题>:{title}
      <关键词>:{key_word}
      <输出>:
      说明:

      prompt需要满足如下要求:

      • 设定合适的身份。
      • 需求描述清晰:完整的上下文、任务内容要干什么和不要干什么、合理的符合标识。
      • 指定输出结构。
      • 给出一个示例。

      返回结果如图6所示。

      图6 推理结果

  7. 结果分析:分析模型的调优结果和推理结果。

    推理结果的评分标准:

    • 输出结构满足{"分类1":"xxx","分类2":"xxx"},则格式正确,得1分。
    • "分类1"和"分类2"的内容与标签相同,得1分。
    • 从模型调优任务的日志中获取最后一个迭代的loss值,作为终止loss。

    通过计算测试集161条数据的平均得分,作为最终得分。

    表7 模型服务的分析结果

    序号

    服务名称

    选择调优类型

    迭代步数/Iterations

    学习率/learning_rate

    格式正确得分

    终止loss

    最终得分

    1

    service--lora-01

    LoRA微调

    160

    3.00E-05

    161

    0.0235

    1.9005

    2

    service--lora-02

    LoRA微调

    480

    3.00E-05

    161

    0.0338

    1.907

    3

    service--lora-03

    LoRA微调

    800

    3.00E-04

    161

    3.20E-05

    1.9005

    4

    service--sft-01

    全参微调

    160

    3.00E-05

    0

    0.0255

    0

    5

    service--sft-02

    全参微调

    800

    3.00E-05

    1

    1.70E-04

    0.0124

    6

    service--sft-03

    全参微调

    160

    3.00E-06

    161

    0.0235

    1.8945

    7

    service-00

    -

    -

    -

    50

    -

    1.02

    结果分析:

    • 新闻自动分类是一个简单的分类任务,5281条数据的数据量也较小,因此LoRA微调和全参微调都能取得较好的调优结果。
    • LoRA微调由于可调参数少,所以学习率设置比全参微调大。
    • 全参微调用相同的“3.00E-05”学习率就出现了过拟合的现象。

    由结果可知第1个和第3个模型服务的训推效果较好。

提示

您即将访问非华为云网站,请注意账号财产安全

文档反馈

文档反馈

意见反馈

0/500

标记内容

同时提交标记内容