Guanaco
Guanaco
模型参数
650.0亿
上下文长度
2K
中文支持
不支持
推理能力
模型基本信息
推理过程
不支持
上下文长度
2K tokens
最大输出长度
暂无数据
模型类型
暂无数据
发布时间
2023-05-23
模型文件大小
暂无数据
MoE架构
否
总参数 / 激活参数
650.0 亿 / 不涉及
知识截止
暂无数据
推理模式
暂无模式数据
开源和体验地址
官方介绍与博客
DataLearnerAI博客
暂无介绍博客
API接口信息
接口速度
暂无数据
暂无公开的 API 定价信息。
评测得分
当前尚无可展示的评测数据。
发布机构
华盛顿大学自然语言处理小组
查看发布机构详情 模型解读
Guanaco是华盛顿大学NLP小组发布的QLoRA方法的预训练结果模型,基于LLaMA微调。包含4个版本:
| Guanaco模型名称 | Guanaco模型参数量 |
|---|---|
| Guanaco 65B | 650亿 |
| Guanaco 33B | 330亿 |
| Guanaco 13B | 130亿 |
| Guanaco 7B | 70亿 |
QLoRA是一种非常高效的大模型预训练技术,可以支持在单张专业级显卡微调650亿参数规模的大模型,具有很好的效果。关于QLoRA技术的简介: https://www.datalearner.com/blog/1051685029967582
注意,Guanaco模型基于LLaMA模型微调得到,受限于LLaMA不允许商用的限制,Guanaco也不能商用!
基础模型
LLaMA
查看详情DataLearner 官方微信
欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送
