Yi

Yi-VL-34B

多模态大模型

Yi-VL-34B

发布时间: 2024-01-22

模型参数(Parameters)
340.0
最高上下文长度(Context Length)
2K
是否支持中文
支持
推理能力(Reasoning)

模型基本信息

最高上下文输入长度

2K tokens

最长输出结果
未披露
模型类型

多模态大模型

发布时间

2024-01-22

模型预文件大小

68GB

开源和体验地址

代码开源状态
预训练权重开源
GitHub 源码
Hugging Face
在线体验
暂无在线体验地址

官方介绍与博客

官方论文
暂无
DataLearnerAI博客
暂无介绍博客

API接口信息

接口速度
暂无数据
接口价格
输入价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据
输出价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据

输入支持的模态

文本

输入不支持

图片

输入不支持

视频

输入不支持

音频

输入不支持

Embedding(向量)

输入不支持

输出支持的模态

文本

输出不支持

图片

输出不支持

视频

输出不支持

音频

输出不支持

Embedding(向量)

输出不支持

Yi-VL-34B模型在各大评测榜单的评分

发布机构

模型介绍

Yi-VL-34B全称是Yi Visual Language - 34B的简称,是一个多模态大模型,该模型是基于LLaVA架构完成的。该模型可以接受文本和图片的输入,但是可以返回文本结果。Yi-VL-34B应该是目前开源的最高参数规模的多模态大模型。


Yi-VL-34B模型的训练过程

Yi-VL-34B多模态大模型的语言模型用的是Yi-34B,然后外接ViT模型得到。训练过程有3个步骤:

  1. 基于 LAION-400M的1亿张244×244像素图片做预训练;
  2. 将ViT模型的解析力提高到448×448像素,这个极端使用2500万图像文本对数据;
  3. 把语言模型和图像模型结合进行训练完整的多模态大模型。


Yi-VL-34B模型的多模态推理的硬件资源

Yi-VL-34B最低需要4个4090显卡才能允许,或者一个A800(80G)显卡。而60亿参数版本的需要RTX3090单卡即可允许,参考: https://www.datalearner.com/ai-resources/pretrained-models/Yi-VL-6B 


Yi-VL-6B可以在如下单张显卡推理:RTX 3090, RTX 4090, A10, A30



Yi-VL-34B模型的多模态评测结果

这个模型使用128个A800(80G)的GPU进行预训练,总共训练10天(6B版本训练了3天)。模型允许商用,免费商用授权。它在多模态评测得分如下:


Yi-VL-34B支持中英文两种语言,可以做图片的理解和文本的识别。根据官方的描述,这个模型可以用来抽取、组织并总结图片中的信息。最高支持448×448像素的图片输入。在中文的多模态评测如下:



该模型实测:




除了60亿参数模型外,还有340亿参数的Yi-VL-34B,这个模型取得了目前多模态评测榜单第一。






关注DataLearnerAI公众号

关注DataLearnerAI微信公众号,接受最新大模型资讯

DataLearnerAI WeChat