St

StableLM

基础大模型

Stable Language Model

发布时间: 2023-04-20

模型参数(Parameters)
1750.0
最高上下文长度(Context Length)
2K
是否支持中文
不支持
推理能力(Reasoning)

模型基本信息

最高上下文输入长度

2K tokens

最长输出结果
未披露
模型类型

基础大模型

发布时间

2023-04-20

模型预文件大小
暂无数据

开源和体验地址

代码开源状态
预训练权重开源
-
GitHub 源码
Hugging Face
在线体验
暂无在线体验地址

官方介绍与博客

官方论文
DataLearnerAI博客
暂无介绍博客

API接口信息

接口速度
暂无数据
接口价格
输入价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据
输出价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据

输入支持的模态

文本

输入不支持

图片

输入不支持

视频

输入不支持

音频

输入不支持

Embedding(向量)

输入不支持

输出支持的模态

文本

输出不支持

图片

输出不支持

视频

输出不支持

音频

输出不支持

Embedding(向量)

输出不支持

StableLM模型在各大评测榜单的评分

发布机构

模型介绍

StableLM是StabilityAI开源的一个大语言模型。于2023年4月20日公布,目前属于开发中,只公布了部分版本模型训练结果。


StabilityAI是著名的开源软件Stable Diffusion的开发者,该系列模型完全开源,但是做的是文本生成图像方向。而本次发布的StableLM是StabilityAI的第一个开源的大语言模型。


该模型基于Pile数据训练,但是是一个新的Pile数据集,比原始的Pile数据集大3倍,包含约1.5万亿tokens,数据集目前没有公开,但是官方说后续在适当的时机会公布。模型训练的context长度是4096个。下图是官方提供的实际测试例子:



截止4月20日,StableLM的技术细节尚未公布!


StableLM系列包含2种模型,一个是基础模型,名字中包含base。另一种是使用斯坦福Alpaca的微调流程在5个对话数据集上的联合微调得到的结果,名字中包含tuned。上述五个对话数据集为:

  1. 斯坦福的Alpaca数据集
  2. Nomic-AI的GPT4All数据集
  3. ShareGPT52K数据集
  4. Databricks的Dolly数据集
  5. Anthropic的HH数据集


目前,StabilityAI确定在训练的模型由5个版本,分别是30亿参数、70亿参数、150亿参数、300亿参数、650亿参数。而1750亿参数规模的模型处于规划阶段:

规模StableLM-Base-AlphaStableLM-Tuned-Alpha训练的tokens数量具体参数大小演示地址
3Bcheckpointcheckpoint8000亿3,638,525,952
7Bcheckpointcheckpoint8000亿7,869,358,080Hugging Face
15B训练中(pending)
30B训练中(pending)
65B训练中(pending)
175B规划中


截止2023年4月20日,已经开放30亿参数和70亿参数规模的预训练结果(下载地址见上表)中base和tuned共4种模型。并在HuggingFace上提供了70亿参数规模的演示环境。


目前StableLM的能力包括:

  • 闲聊
  • 正式的写作(如邮件)
  • 创意写作(写诗)
  • 写代码(如代码补全、文本生成代码等)


StableLM遵守CC BY-SA-4.0协议,开发人员可以自由使用基础模型(包括商业目的)。


StableLM官方博客介绍: https://stability.ai/blog/stability-ai-launches-the-first-of-its-stablelm-suite-of-language-models 

StableLM的GitHub地址: https://github.com/Stability-AI/StableLM 

StableLM的HuggingFace演示地址: https://huggingface.co/spaces/stabilityai/stablelm-tuned-alpha-chat 



关注DataLearnerAI公众号

关注DataLearnerAI微信公众号,接受最新大模型资讯

DataLearnerAI WeChat