Vi

Vicuna 7B

基础大模型

Vicuna 7B

发布时间: 2023-04-07

模型参数(Parameters)
70.0
最高上下文长度(Context Length)
2K
是否支持中文
不支持
推理能力(Reasoning)

模型基本信息

最高上下文输入长度

2K tokens

最长输出结果
未披露
模型类型

基础大模型

发布时间

2023-04-07

模型预文件大小

13.5GB

开源和体验地址

代码开源状态
预训练权重开源
开源不可商用 - 不可以商用
GitHub 源码
Hugging Face
在线体验
暂无在线体验地址

官方介绍与博客

官方论文
DataLearnerAI博客
暂无介绍博客

API接口信息

接口速度
暂无数据
接口价格
输入价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据
输出价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据

输入支持的模态

文本

输入不支持

图片

输入不支持

视频

输入不支持

音频

输入不支持

Embedding(向量)

输入不支持

输出支持的模态

文本

输出不支持

图片

输出不支持

视频

输出不支持

音频

输出不支持

Embedding(向量)

输出不支持

Vicuna 7B模型在各大评测榜单的评分

发布机构

模型介绍

--------------2023年8月3日更新--------------------

Vicuna发布1.5版本更新的权重模型,效果更好:   https://huggingface.co/lmsys/vicuna-7b-v1.5 


Vicuna-7B是一个70亿规模的聊天机器人模型,基于MetaAI的LLaMA模型微调得到。

也是Vicuna家族的第2个成员,第一个是130亿参数规模的模型。


Vicuna-7B可以运行在MacBook电脑上,使用M1芯片。


Vicuna-7B模型是基于MetaAI开源的LLaMA模型微调得到,由于LLaMA模型原有协议的限制,本模型也无法商用,即使非商用使用也需要先申请LLaMA的预训练结果。


目前,Vicuna-7B的官方模型有2个版本,分别是delta-v0和delta-v1.1。前者发布于4月7日。4月12日,官方再次更新,发布1.1版本。


权重v1.1的主要更新有2个:

  • 重构标记化和分隔符。在Vicuna v1.1中,分隔符已从“###”更改为EOS令牌“</s>”。此更改使确定生成停止条件变得更加容易,并能够更好地与其他库兼容。
  • 修复有监督的微调损失计算,以获得更好的模型质量。

Foundation Model

关注DataLearnerAI公众号

关注DataLearnerAI微信公众号,接受最新大模型资讯

DataLearnerAI WeChat