Replit-finetuned-v1-3b
Replit-finetuned-v1-3b
模型参数
27.0亿
上下文长度
2K
中文支持
不支持
推理能力
模型基本信息
推理过程
不支持
上下文长度
2K tokens
最大输出长度
暂无数据
模型类型
暂无数据
发布时间
2023-04-26
模型文件大小
暂无数据
MoE架构
否
总参数 / 激活参数
27.0 亿 / 不涉及
知识截止
暂无数据
推理模式
暂无模式数据
开源和体验地址
代码开源状态
暂无数据
预训练权重开源
暂无数据
GitHub 源码
暂无GitHub开源地址
Hugging Face
暂无开源HuggingFace地址
在线体验
暂无在线体验地址
官方介绍与博客
官方论文
暂无官方论文
DataLearnerAI博客
暂无介绍博客
API接口信息
接口速度
暂无数据
暂无公开的 API 定价信息。
评测得分
当前尚无可展示的评测数据。
发布机构
Replit
查看发布机构详情 模型解读
Replit-finetuned-v1-3b是Replit开发的一个编程大模型,与Replit-code-v1-3b一同宣布。官方确定Replit-code-v1-3b会是一个开源的模型,但是没有明确说Replit-finetuned-v1-3b是否开源。
Replit-code-v1-3b模型: https://www.datalearner.com/ai-models/pretrained-models/replit-code-v1-3b
从官方提供的比较看,该模型与Replit-code-v1-3b可能一样,基于5250亿tokens的代码数据集微调得到,但是可能做了进一步的训练,其效果也是好于Replit-code-v1-3b。
其它信息暂未公布!
基础模型
LLaMA
查看详情DataLearner 官方微信
欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送
