St

StableCode-Completion-Alpha-3B

编程大模型

StableCode-Completion-Alpha-3B

发布时间: 2023-08-08

模型参数(Parameters)
30.0
最高上下文长度(Context Length)
16K
是否支持中文
不支持
推理能力(Reasoning)

模型基本信息

是否支持推理过程

不支持

最高上下文输入长度

16K tokens

最长输出结果
暂无数据
模型类型

编程大模型

发布时间

2023-08-08

模型预文件大小

6.08GB

开源和体验地址

代码开源状态
预训练权重开源
Apache 2.0 - 免费商用授权
GitHub 源码
Hugging Face
在线体验
暂无在线体验地址

官方介绍与博客

官方论文
DataLearnerAI博客
暂无介绍博客

API接口信息

接口速度(满分5分)
暂无数据
接口价格
输入价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据
输出价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据

输入支持的模态

文本

输入不支持

图片

输入不支持

视频

输入不支持

音频

输入不支持

Embedding(向量)

输入不支持

输出支持的模态

文本

输出不支持

图片

输出不支持

视频

输出不支持

音频

输出不支持

Embedding(向量)

输出不支持

StableCode-Completion-Alpha-3B模型在各大评测榜单的评分

发布机构

模型介绍

StableCode-Completion-Alpha-3B 是一个拥有30亿参数的仅解码器的代码补全模型,它在基于2023年stackoverflow开发者调查的最常用编程语言的多样化集合上进行了预训练。


该模型旨在从长达16k令牌的长上下文窗口中完成单行/多行代码补全。


模型细节

开发者:Stability AI

模型类型:基于变压器解码器架构的自回归语言模型。

语言:

代码库:GPT-NeoX

许可证:模型检查点根据Apache 2.0许可证授权。


模型架构

参数:2,796,431,360

隐藏大小:2560

层数:32

头部:32

序列长度:16384


训练

StableCode-Completion-Alpha-3B 使用多阶段上下文长度扩展计划进行预训练,首先在4096的上下文长度下预训练3000亿令牌,然后在16384的上下文长度下对另外200B令牌进行微调。


使用和限制


预期用途:StableCode-Completion-Alpha-3B 可以独立生成新的代码补全,但建议您与BigCode和HuggingFace开发的工具一起使用StableCode-Completion-Alpha-3B,以识别并(如有必要)归因于与训练代码匹配的任何输出。

关注DataLearnerAI公众号

关注DataLearnerAI微信公众号,接受最新大模型资讯

DataLearnerAI WeChat