更新时间:2024-12-03 GMT+08:00
分享

盘古NLP大模型能力与规格

盘古NLP大模型是业界首个超千亿参数的中文预训练大模型,结合了大数据预训练和多源知识,借助持续学习不断吸收海量文本数据,持续提升模型性能。除了实现行业知识检索、文案生成、阅读理解等基础功能外,盘古NLP大模型还具备模型调用等高级特性,可在智能客服、创意营销等多个典型场景中,提供强大的AI技术支持。

ModelArts Studio大模型开发平台为用户提供了多种规格的NLP大模型,以满足不同场景和需求。不同模型在处理上下文token长度和功能上有所差异,以下是当前支持的模型清单,您可以根据实际需求选择最合适的模型进行开发和应用。

表1 盘古NLP大模型规格

模型支持区域

模型名称

可处理最大Token长度

说明

西南-贵阳一

Pangu-NLP-N1-Chat-32K-20241030

32K

盘古NLP大模型,此版本是2024年10月发布的十亿级模型版本,支持8K序列长度训练,4K、32K序列长度推理。基于Snt9B3卡可单卡推理部署,此模型版本支持全量微调、LoRA微调、INT8量化、断点续训、在线推理和能力调测特性。

Pangu-NLP-N1-Chat-128K-20241030

128K

此版本是2024年10月发布的十亿级模型版本,支持128K序列长度在线推理。基于Snt9B3卡支持8卡推理部署,此模型版本仅支持预置模型版本,不支持SFT后模型版本做128K序列长度推理部署。

Pangu-NLP-N2-Base-20241030

-

此版本是2024年10月发布的百亿级模型版本,支持模型增量预训练。基于Snt9B3卡支持32卡起训,预训练后的模型版本需要通过SFT之后,才可支持推理部署。

Pangu-NLP-N2-Chat-32K-20241030

32K

此版本是2024年10月发布的百亿级模型版本,支持8K序列长度训练,4K、32K序列长度推理。基于Snt9B3卡可支持32卡起训,支持4卡推理部署,此模型版本支持全量微调、LoRA微调、INT8量化、断点续训、在线推理、能力调测、边缘部署特性。

在选择和使用盘古大模型时,了解不同模型所支持的操作行为至关重要。不同模型在预训练、微调、模型评测、在线推理和能力调测等方面的支持程度各不相同,开发者应根据自身需求选择合适的模型。以下是盘古NLP大模型支持的具体操作:

表2 盘古NLP大模型支持的能力

模型

预训练

微调

模型压缩

在线推理

能力调测

Pangu-NLP-N1-Chat-32K-20241030

-

Pangu-NLP-N1-Chat-128K-20241030

-

-

-

Pangu-NLP-N2-Base-20241030

-

-

-

-

Pangu-NLP-N2-Chat-32K-20241030

-

相关文档