盘古NLP大模型能力与规格
盘古NLP大模型是业界首个超千亿参数的中文预训练大模型,结合了大数据预训练和多源知识,借助持续学习不断吸收海量文本数据,持续提升模型性能。除了实现行业知识检索、文案生成、阅读理解等基础功能外,盘古NLP大模型还具备模型调用等高级特性,可在智能客服、创意营销等多个典型场景中,提供强大的AI技术支持。
ModelArts Studio大模型开发平台为用户提供了多种规格的NLP大模型,以满足不同场景和需求。不同模型在处理上下文token长度和功能上有所差异,以下是当前支持的模型清单,您可以根据实际需求选择最合适的模型进行开发和应用。
模型支持区域 |
模型名称 |
可处理最大Token长度 |
说明 |
---|---|---|---|
西南-贵阳一 |
Pangu-NLP-N1-Chat-32K-20241030 |
32K |
盘古NLP大模型,此版本是2024年10月发布的十亿级模型版本,支持8K序列长度训练,4K、32K序列长度推理。基于Snt9B3卡可单卡推理部署,此模型版本支持全量微调、LoRA微调、INT8量化、断点续训、在线推理和能力调测特性。 |
Pangu-NLP-N1-Chat-128K-20241030 |
128K |
此版本是2024年10月发布的十亿级模型版本,支持128K序列长度在线推理。基于Snt9B3卡支持8卡推理部署,此模型版本仅支持预置模型版本,不支持SFT后模型版本做128K序列长度推理部署。 |
|
Pangu-NLP-N2-Base-20241030 |
- |
此版本是2024年10月发布的百亿级模型版本,支持模型增量预训练。基于Snt9B3卡支持32卡起训,预训练后的模型版本需要通过SFT之后,才可支持推理部署。 |
|
Pangu-NLP-N2-Chat-32K-20241030 |
32K |
此版本是2024年10月发布的百亿级模型版本,支持8K序列长度训练,4K、32K序列长度推理。基于Snt9B3卡可支持32卡起训,支持4卡推理部署,此模型版本支持全量微调、LoRA微调、INT8量化、断点续训、在线推理、能力调测、边缘部署特性。 |
在选择和使用盘古大模型时,了解不同模型所支持的操作行为至关重要。不同模型在预训练、微调、模型评测、在线推理和能力调测等方面的支持程度各不相同,开发者应根据自身需求选择合适的模型。以下是盘古NLP大模型支持的具体操作:
模型 |
预训练 |
微调 |
模型压缩 |
在线推理 |
能力调测 |
---|---|---|---|---|---|
Pangu-NLP-N1-Chat-32K-20241030 |
- |
√ |
√ |
√ |
√ |
Pangu-NLP-N1-Chat-128K-20241030 |
- |
- |
- |
√ |
√ |
Pangu-NLP-N2-Base-20241030 |
√ |
- |
- |
- |
- |
Pangu-NLP-N2-Chat-32K-20241030 |
- |
√ |
√ |
√ |
√ |