MP

MPT-30B

基础大模型

MosaicML Pretrained Transformer - 30B

发布时间: 2023-06-22

模型参数(Parameters)
300.0
最高上下文长度(Context Length)
2K
是否支持中文
不支持
推理能力(Reasoning)

模型基本信息

最高上下文输入长度

2K tokens

最长输出结果
未披露
模型类型

基础大模型

发布时间

2023-06-22

模型预文件大小

60GB

开源和体验地址

代码开源状态
预训练权重开源
Apache 2.0 - 免费商用授权
GitHub 源码
Hugging Face
在线体验
暂无在线体验地址

官方介绍与博客

官方论文
DataLearnerAI博客
暂无介绍博客

API接口信息

接口速度
暂无数据
接口价格
输入价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据
输出价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据

输入支持的模态

文本

输入不支持

图片

输入不支持

视频

输入不支持

音频

输入不支持

Embedding(向量)

输入不支持

输出支持的模态

文本

输出不支持

图片

输出不支持

视频

输出不支持

音频

输出不支持

Embedding(向量)

输出不支持

MPT-30B模型在各大评测榜单的评分

发布机构

模型介绍

MPT-30B是MosaicML开源的一个300亿参数规模的基础大语言模型。这是距离MPT-7B系列模型发布仅仅一个多月时间又一次更新。


相比较此前的MPT-7B系列模型,MPT-30B修改了transformer架构,使其训练和推理更加高效。MPT-30B是一个基础大语言模型,训练数据依然来自MosaicML团队收集的1万亿文本和代码数据集。


MPT-30B具有区别于其他LLM的特殊能力,包括支持8k的上下文窗口(可以通过微调进一步扩展,类似于MPT-7B-StoryWriter),通过ALiBi支持上下文长度的外推,以及通过FlashAttention进行高效推理+训练。由于其预训练组合,它还具有强大的编码能力。


至于300亿参数规模,官方也宣称是一种精心选择的结果,MPT-30B的规模可以在单个GPU上部署:其16位精度的模型可以部署在单个xA100-80GB显卡上,而8位精度的模型则可以部署在一个A100-40GB显卡上。


MPT-30B依然是代码和预训练结果均开源可商用的方式授权,以Apache 2.0协议开源。

Foundation Model

关注DataLearnerAI公众号

关注DataLearnerAI微信公众号,接受最新大模型资讯

DataLearnerAI WeChat