GPT4All LoRA
GPT4All LoRA
模型参数
70.0亿
上下文长度
2K
中文支持
不支持
推理能力
模型基本信息
推理过程
不支持
上下文长度
2K tokens
最大输出长度
暂无数据
模型类型
基础大模型
发布时间
2023-03-29
模型文件大小
8.41MB
MoE架构
否
总参数 / 激活参数
70.0 亿 / 不涉及
知识截止
暂无数据
推理模式
暂无模式数据
开源和体验地址
代码开源状态
暂无数据
预训练权重开源
暂无数据
GitHub 源码
Hugging Face
在线体验
暂无在线体验地址
官方介绍与博客
官方论文
DataLearnerAI博客
暂无介绍博客
API接口信息
接口速度
暂无数据
暂无公开的 API 定价信息。
评测得分
当前尚无可展示的评测数据。
发布机构
Nomic AI
查看发布机构详情 模型解读
GPT4All LoRA是NomicAI开源的就MetaAI发布的LLaMA微调的大语言模型。GPT4All最开始训练了好几个模型,GPT4All LoRA是运行了4次Epochs之后得到的。
Nomic花了大约四天的时间、800美元的GPU成本(从Lambda Labs和Paperspace租用),包括几次失败的训练,以及500美元的OpenAI API费用,成功生成了这些模型。而本次发布的模型名为gpt4all-lora,可以在Lambda Labs DGX A100 8x 80GB上大约八个小时内完成训练,总成本为100美元。
基础模型
LLaMA
查看详情DataLearner 官方微信
欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送
