Stanford-Alpaca

Stanford-Alpaca

预训练模型详情

模型全称

Stanford-Alpaca

模型简称

Stanford-Alpaca

发布日期

2023-03-13

预训练文件大小

未知

模型参数数量(亿)

70

发布论文

论文地址

发布机构

基础模型

无基础模型

Stanford-Alpaca 简介

斯坦福大学发布的Stanford-Alpaca则是基于70亿参数版本的LLaMA做微调的模型,使用了5.2万的instruction-following数据。基于初步的人工判断,该模型的效果与OpenAI的text-davinci-003水平差不多。微调70亿参数的LLaMA花了大约3个小时,使用了8个80GB的A100显卡。而这些在云上的费用不足100美金,因此相当低廉!

目前,Stanford-Alpaca还在开发中,但是已经引起了很多人的关注。但是,本次项目的开源需要被MetaAI允许,所以目前仅提供在线测试版本:https://alpaca-ai-custom6.ngrok.iol/

该项目目前发布仅仅12个小时,已经在GitHub上获得了1.6K的star了,速度惊人!

项目GitHub地址:https://github.com/tatsu-lab/stanford_alpaca
官方博客地址:https://crfm.stanford.edu/2023/03/13/alpaca.html

Stanford-Alpaca所属的领域
自然语言处理

自然语言处理

Natural Language Process

35个资源

Stanford-Alpaca相关的任务
文本生成

文本生成

Text Generation

35个资源