盘古NLP大模型能力与规格
盘古NLP大模型是业界首个超千亿参数的中文预训练大模型,结合了大数据预训练和多源知识,借助持续学习不断吸收海量文本数据,持续提升模型性能。除了实现行业知识检索、文案生成、阅读理解等基础功能外,盘古NLP大模型还具备模型调用等高级特性,可在智能客服、创意营销等多个典型场景中,提供强大的AI技术支持。
ModelArts Studio大模型开发平台为用户提供了多种规格的NLP大模型,以满足不同场景和需求。不同模型在处理上下文token长度和功能上有所差异,以下是当前支持的模型清单,您可以根据实际需求选择最合适的模型进行开发和应用。
模型支持区域 |
模型名称 |
可处理最大上下文长度 |
可处理最大输出长度 |
说明 |
---|---|---|---|---|
西南-贵阳一 |
Pangu-NLP-N1-Chat-32K-20241130 |
32K |
4K |
2024年11月发布的版本,支持8K序列长度训练,4K/32K序列长度推理。全量微调、LoRA微调8个训练单元起训,1个推理单元即可部署。 |
Pangu-NLP-N1-Chat-128K-20241130 |
128K |
4K |
2024年11月发布的版本,仅支持128K序列长度推理。 |
|
Pangu-NLP-N2-Base-20241030 |
- |
4K |
2024年11月发布的版本,仅支持模型增量预训练。32个训练单元起训,预训练后的模型版本需要通过微调之后,才可支持推理部署。 |
|
Pangu-NLP-N2-Chat-32K-20241030 |
32K |
4K |
2024年10月发布版本,支持8K序列长度训练,4K/32K序列长度推理。全量微调32个训练单元起训,LoRA微调8个训练单元起训,4个推理单元即可部署。此模型版本差异化支持预训练特性、INT8量化特性。 |
|
Pangu-NLP-N2-32K-3.1.35 |
32K |
4K |
2024年12月发布版本,支持8K序列长度训练,4K/32K序列长度推理。全量微调32个训练单元起训,LoRA微调8个训练单元起训,4个推理单元即可部署,4K支持64并发,32K支持64并发。此模型版本差异化支持预训练特性、INT8量化特性。 |
|
Pangu-NLP-N2-128K-3.1.35 |
128K |
4K |
2024年12月发布的版本,仅支持128K序列长度推理部署。 |
|
Pangu-NLP-N2-256K-3.1.35 |
256K |
4K |
2024年12月发布的版本,仅支持256K序列长度推理部署。 |
|
Pangu-NLP-N4-Chat-4K-20241130 |
32K |
4K |
2024年11月发布的版本,支持4K序列长度训练,4K序列长度推理。全量微调64个训练单元起训,LoRA微调32个训练单元起训,8个训练单元即可部署。此模型版本差异化支持预训练、INT8/INT4量化特性。 |
|
Pangu-NLP-N4-Chat-32K-20241130 |
32K |
4K |
2024年11月发布的版本,仅支持32K序列长度推理部署。 |
在选择和使用盘古大模型时,了解不同模型所支持的操作行为至关重要。不同模型在预训练、微调、模型评测、在线推理和能力调测等方面的支持程度各不相同,开发者应根据自身需求选择合适的模型。以下是盘古NLP大模型支持的具体操作:
模型 |
预训练 |
微调 |
模型评测 |
模型压缩 |
在线推理 |
能力调测 |
---|---|---|---|---|---|---|
Pangu-NLP-N1-Chat-32K-20241130 |
- |
√ |
√ |
√ |
√ |
√ |
Pangu-NLP-N1-Chat-128K-20241130 |
- |
- |
√ |
- |
√ |
√ |
Pangu-NLP-N2-Base-20241030 |
√ |
- |
√ |
- |
- |
- |
Pangu-NLP-N2-Chat-32K-20241030 |
- |
√ |
√ |
√ |
√ |
√ |
Pangu-NLP-N2-32K-3.1.35 |
√ |
√ |
√ |
√ |
√ |
√ |
Pangu-NLP-N2-128K-3.1.35 |
- |
- |
√ |
- |
√ |
√ |
Pangu-NLP-N2-256K-3.1.35 |
- |
- |
√ |
- |
√ |
√ |
Pangu-NLP-N4-Chat-4K-20241130 |
- |
√ |
√ |
√ |
√ |
√ |
Pangu-NLP-N4-Chat-32K-20241130 |
- |
√ |
√ |
√ |
√ |
√ |