St

Stanford Alpaca

基础大模型

Stanford Alpaca

发布时间: 2023-03-13

模型参数(Parameters)
70.0
最高上下文长度(Context Length)
2K
是否支持中文
不支持
推理能力(Reasoning)

模型基本信息

是否支持推理过程

不支持

最高上下文输入长度

2K tokens

最长输出结果
暂无数据
模型类型

基础大模型

发布时间

2023-03-13

模型预文件大小

14GB

开源和体验地址

代码开源状态
预训练权重开源
开源不可商用 - 不可以商用
GitHub 源码
Hugging Face
暂无开源HuggingFace地址
在线体验
暂无在线体验地址

官方介绍与博客

官方论文
DataLearnerAI博客
暂无介绍博客

API接口信息

接口速度(满分5分)
暂无数据
接口价格
输入价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据
输出价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据

输入支持的模态

文本

输入不支持

图片

输入不支持

视频

输入不支持

音频

输入不支持

Embedding(向量)

输入不支持

输出支持的模态

文本

输出不支持

图片

输出不支持

视频

输出不支持

音频

输出不支持

Embedding(向量)

输出不支持

Stanford Alpaca模型在各大评测榜单的评分

发布机构

模型介绍

斯坦福大学发布的Stanford-Alpaca则是基于70亿参数版本的LLaMA做微调的模型,使用了5.2万的instruction-following数据。基于初步的人工判断,该模型的效果与OpenAI的text-davinci-003水平差不多。微调70亿参数的LLaMA花了大约3个小时,使用了8个80GB的A100显卡。而这些在云上的费用不足100美金,因此相当低廉!


Stanford Alpaca提供了一种非常低成本提高模型对话能力的方法。同时,基于MetaAI开源的LLaMA做的开源版本也显示了强大的水平。这证明了,采用高精度的指令数据集也是可以将模型提高到一个很好的水平。而Stanford Alpaca也启示了很多后续模型的开发。


Alpaca使用如下参数对LLaMA-7B和LLaMA-13B的模型进行微调

超参数LLaMA-7BLLaMA-13B
批次大小128128
学习速率2e-51e-5
Epochs35
Max length512512
Weight decay00


目前,Stanford-Alpaca还在开发中,但是已经引起了很多人的关注。但是,本次项目的开源需要被MetaAI允许,所以目前仅提供在线测试版本:https://alpaca-ai-custom6.ngrok.iol/

该项目目前发布仅仅12个小时,已经在GitHub上获得了1.6K的star了,速度惊人!

项目GitHub地址:https://github.com/tatsu-lab/stanford_alpaca
官方博客地址:https://crfm.stanford.edu/2023/03/13/alpaca.html


---------------2023/4/4更新---------------

目前,Stanford Alpaca已经开源了相关的数据集和代码,主要包括

52K用于微调模型的数据集: https://github.com/tatsu-lab/stanford_alpaca#data-release 

用于生成数据的代码: https://github.com/tatsu-lab/stanford_alpaca#data-generation-process 

模型微调代码: https://github.com/tatsu-lab/stanford_alpaca#fine-tuning 

在线演示地址: https://crfm.stanford.edu/alpaca/ 


不过Alpaca模型的预训练结果目前还没有发布,根据官方博客的消息,该预训练结果将在近日发布。




Foundation Model

关注DataLearnerAI公众号

关注DataLearnerAI微信公众号,接受最新大模型资讯

DataLearnerAI WeChat