Re

Replit Code V1 3B

编程大模型

Replit Code V1 3B

发布时间: 2023-04-26

模型参数(Parameters)
27.0
最高上下文长度(Context Length)
2K
是否支持中文
不支持
推理能力(Reasoning)

模型基本信息

最高上下文输入长度

2K tokens

最长输出结果
未披露
模型类型

编程大模型

发布时间

2023-04-26

模型预文件大小

10.4GB

开源和体验地址

代码开源状态
预训练权重开源
CC BY-SA-4.0 - 免费商用授权
GitHub 源码
暂无GitHub开源地址
Hugging Face
在线体验
暂无在线体验地址

官方介绍与博客

官方论文
暂无
DataLearnerAI博客
暂无介绍博客

API接口信息

接口速度
暂无数据
接口价格
输入价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据
输出价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据

输入支持的模态

文本

输入不支持

图片

输入不支持

视频

输入不支持

音频

输入不支持

Embedding(向量)

输入不支持

输出支持的模态

文本

输出不支持

图片

输出不支持

视频

输出不支持

音频

输出不支持

Embedding(向量)

输出不支持

Replit Code V1 3B模型在各大评测榜单的评分

发布机构

模型介绍

2023年5月3日,Replit Code V1-3b正式发布,并在HuggingFace上开源。模型也有了更多的细节。

首先,Replit Code V1-3b模型主要关注代码补全的能力,基于Stack Dedup v1.2数据集的一个子集进行训练,共包含5250亿个tokens(数据集本身只有1750亿tokens,Replit将其重复了3个Epochs)。


Replit Code V1-3b支持20种编程语言的补全能力:

  • Markdown
  • Java
  • JavaScript
  • Python
  • TypeScript
  • PHP
  • SQL
  • JSX
  • reStructuredText
  • Rust
  • C
  • CSS
  • Go
  • C++
  • HTML
  • Vue
  • Ruby
  • Jupyter Notebook
  • R
  • Shell

Replit Code V1-3b模型使用MosaicML平台训练,这是一个针对大语言模型设计的一个训练平台,包括Replit、StabilityAI等公司都在使用它的产品。总的来说,Replit Code V1-3b的主要信息如下:

    信息项信息结果
    模型名称Replit Code V1-3b
    针对的任务代码补全
    支持的编程语言数20种,包括Python、Java、C等
    训练数据Stack Dedup v1.2数据集子集
    训练tokens数1750*3=5250
    训练平台MosaicML
    使用的GPU256个40G的A100


    注意,该模型可以商用,协议非常友好~


    下图是官方代码补全的实例,来自HuggingFace上的演示:





    ------------------以下内容是2023年4月26日官方推特上的信息总结-----------------------------

    Replit Code V1-3b是Replit发布的一个大模型,用以生成代码的工具。模型大27亿参数。支持20种编程语言,基于5250亿个tokens进行训练。训练了10天后比现有所有的开源模型效果都好(基于人工评估)。




    replit-code-v1-3b模型主要是用于单行代码补全。它还有个兄弟模型名字是replit-finetuned-v1-3b,目前看这个模型的效果更好,但是可能不会开源。在开源模型对比结果中,replit-finetuned-v1-3b排行第一,replit-code-v1-3b排名第三。第二名的CodeGeeX是清华大学发布的模型: https://www.datalearner.com/ai-models/pretrained-models/CodeGeeX  参数规模130亿~~



    与商业模型相比,replit-code-v1-3b和replit-finetuned-v1-3b排行也非常好,而且它们也是参数最小的2个模型。这意味着,它可能仅仅用27亿参数就完成了别人上百亿参数模型的能力。


    目前,只是透露了训练进展,正式发布还需要待定~~而且,它们70亿参数版本也正在训练中!

    关注DataLearnerAI公众号

    关注DataLearnerAI微信公众号,接受最新大模型资讯

    DataLearnerAI WeChat
    Back to Top