Lo

LongForm LLaMA 7B

基础大模型

LongForm LLaMA 7B

发布时间: 2023-04-26

模型参数(Parameters)
70.0
最高上下文长度(Context Length)
2K
是否支持中文
不支持
推理能力(Reasoning)

模型基本信息

最高上下文输入长度

2K tokens

最长输出结果
未披露
模型类型

基础大模型

发布时间

2023-04-26

模型预文件大小

28GB

开源和体验地址

代码开源状态
预训练权重开源
-
GitHub 源码
Hugging Face
在线体验
暂无在线体验地址

官方介绍与博客

API接口信息

接口速度
暂无数据
接口价格
输入价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据
输出价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据

输入支持的模态

文本

输入不支持

图片

输入不支持

视频

输入不支持

音频

输入不支持

Embedding(向量)

输入不支持

输出支持的模态

文本

输出不支持

图片

输出不支持

视频

输出不支持

音频

输出不支持

Embedding(向量)

输出不支持

LongForm LLaMA 7B模型在各大评测榜单的评分

发布机构

模型介绍

LongForm LLaMA 7B是慕尼黑大学研究人员基于LongForm数据集微调LLaMA模型的预训练大模型。LongForm是一系列指令微调数据集,包含27739条记录。这是通过使用LLM从数据集中生成指令后得到的指令微调数据集。是一种低成本高质量的指令微调数据集获取方法。


LongForm LLaMA 7B就是利用上述数据集,用LLaMA微调得到的。但是,由于LLaMA模型协议的限制,研究人员无法直接发布基于LLaMA微调的任何结果。因此,他们发布了一个diff模型:LongForm-LLaMA-7B-diff。


LongForm-LLaMA-7B-diff是一个预训练结果,但是这个预训练结果是LongForm-LLaMA-7B与原始LLaMA-7B模型的差异结果。也就是说不包含原始LLaMA的任意部分。这也是规避MetaAI模型开源限制的方法。使用的时候,需要先从MetaAI那里获取原始的LLaMA模型,然后再加载这个LongForm-LLaMA-7B-diff模型,将二者合并之后得到真正的LongForm LLaMA 7B模型后才能使用。


根据官方的测试,基于LongForm数据集微调的模型效果非常好:

模型名称平均得分得分菜谱生成得分ELI5得分Prompts撰写得分
T0++10.918.73.810.2
Tk-Instruct6.312.9*3.62.4
Flan-T510.620.9*3.57.4
Alpaca-LLaMA-7B14.619.512.511.8
OPT-30B11.118.612.22.6
LongForm-T5-XL16.320.218.310.6
LongForm-OPT-2.7B17.815.517.919.9
LongForm-OPT-6.7B17.716.917.219.0
LongForm-LLaMA-7B19.721.718.618.9


Foundation Model

关注DataLearnerAI公众号

关注DataLearnerAI微信公众号,接受最新大模型资讯

DataLearnerAI WeChat