预训练模型详情
模型全称
Stanford-Alpaca
模型简称
Stanford-Alpaca
发布日期
2023-03-13
预训练文件大小
未知
模型参数数量(亿)
70
发布论文
发布机构
基础模型
斯坦福大学发布的Stanford-Alpaca则是基于70亿参数版本的LLaMA做微调的模型,使用了5.2万的instruction-following数据。基于初步的人工判断,该模型的效果与OpenAI的text-davinci-003
水平差不多。微调70亿参数的LLaMA花了大约3个小时,使用了8个80GB的A100显卡。而这些在云上的费用不足100美金,因此相当低廉!
目前,Stanford-Alpaca还在开发中,但是已经引起了很多人的关注。但是,本次项目的开源需要被MetaAI允许,所以目前仅提供在线测试版本:https://alpaca-ai-custom6.ngrok.iol/
该项目目前发布仅仅12个小时,已经在GitHub上获得了1.6K的star了,速度惊人!
项目GitHub地址:https://github.com/tatsu-lab/stanford_alpaca
官方博客地址:https://crfm.stanford.edu/2023/03/13/alpaca.html