模型详细情况和参数
Yi-VL-34B全称是Yi Visual Language - 34B的简称,是一个多模态大模型,该模型是基于LLaVA架构完成的。该模型可以接受文本和图片的输入,但是可以返回文本结果。Yi-VL-34B应该是目前开源的最高参数规模的多模态大模型。
Yi-VL-34B多模态大模型的语言模型用的是Yi-34B,然后外接ViT模型得到。训练过程有3个步骤:
Yi-VL-34B最低需要4个4090显卡才能允许,或者一个A800(80G)显卡。而60亿参数版本的需要RTX3090单卡即可允许,参考: https://www.datalearner.com/ai-resources/pretrained-models/Yi-VL-6B
Yi-VL-6B可以在如下单张显卡推理:RTX 3090, RTX 4090, A10, A30
这个模型使用128个A800(80G)的GPU进行预训练,总共训练10天(6B版本训练了3天)。模型允许商用,免费商用授权。它在多模态评测得分如下:
Yi-VL-34B支持中英文两种语言,可以做图片的理解和文本的识别。根据官方的描述,这个模型可以用来抽取、组织并总结图片中的信息。最高支持448×448像素的图片输入。在中文的多模态评测如下:
该模型实测:
除了60亿参数模型外,还有340亿参数的Yi-VL-34B,这个模型取得了目前多模态评测榜单第一。