Mi

MiniGPT-4

多模态大模型

MiniGPT-4

发布时间: 2023-04-16

模型参数(Parameters)
130.0
最高上下文长度(Context Length)
2K
是否支持中文
不支持
推理能力(Reasoning)

模型基本信息

最高上下文输入长度

2K tokens

最长输出结果
未披露
模型类型

多模态大模型

发布时间

2023-04-16

模型预文件大小
暂无数据

开源和体验地址

代码开源状态
预训练权重开源
开源不可商用 - 不可以商用
GitHub 源码
Hugging Face
暂无开源HuggingFace地址
在线体验
暂无在线体验地址

官方介绍与博客

API接口信息

接口速度
暂无数据
接口价格
输入价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据
输出价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据

输入支持的模态

文本

输入不支持

图片

输入不支持

视频

输入不支持

音频

输入不支持

Embedding(向量)

输入不支持

输出支持的模态

文本

输出不支持

图片

输出不支持

视频

输出不支持

音频

输出不支持

Embedding(向量)

输出不支持

MiniGPT-4模型在各大评测榜单的评分

发布机构

King Abdullah University of Science and Technology
King Abdullah University of Science and Technology
查看发布机构详情

模型介绍

MiniGPT-4是一个可以理解图片的大语言模型,是由开源的预训练模型Vicuna-13B与BLIP-2结合的新模型。


MiniGPT-4是分两个阶段训练的。

  1. 首先是使用500万个图像-文本数据训练,在4个A100上训练了10个小时左右,不过这个阶段的模型的生成能力受到了严重的影响,因此还有第二个阶段;
  2. 第二个阶段是通过模型本身和ChatGPT一起创建高质量的图像文本对,这是一个小而高质量的数据集(共计3500个对)。然后在对话模板中使用这个数据集进行训练,显著提高了其生成可靠性和整体可用性;但是这个阶段的微调效率很高,一个A100在大约7分钟内就可以完成。



研究发现,MiniGPT-4具有许多与GPT-4类似的功能,比如生成详细的图像描述和从手写草稿创建网站。MiniGPT-4还有其他新兴功能,包括根据给定的图像撰写故事和诗歌,提供解决图像中显示的问题的方法,以及基于食品照片教用户如何烹饪等。下图是一个实例:




MiniGPT-4的数据集、论文等完全公开。


MiniGPT-4开源代码地址: https://github.com/Vision-CAIR/MiniGPT-4 

MiniGPT-4第一阶段数据集地址: https://github.com/Vision-CAIR/MiniGPT-4/blob/main/dataset/README_1_STAGE.md 

MiniGPT-4第二阶段数据集地址: https://github.com/Vision-CAIR/MiniGPT-4/blob/main/dataset/README_2_STAGE.md 

MiniGPT-4官网地址: https://minigpt-4.github.io/ 

MiniGPT-4在线演示地址: https://minigpt-4.github.io/ 

MiniGPT-4论文地址: https://github.com/Vision-CAIR/MiniGPT-4/blob/main/MiniGPT_4.pdf 

Foundation Model

关注DataLearnerAI公众号

关注DataLearnerAI微信公众号,接受最新大模型资讯

DataLearnerAI WeChat