模型发布时间: 2023-02-24
模型发布机构: Facebook AI研究实验室
模型所属类型: 自然语言处理
LLaMA是一种基于transformer架构的自回归语言模型,由Meta的基础人工智能研究(FAIR)团队开发。它比ChatGPT小10倍,有四种不同的尺寸:7B、13B、33B和65B参数。作为比较,ChatGPT所基于的GPT-3.5模型训练了175B参数。
由于LLaMA完全开源,因此在行业影响力很大。起初,其最大的模型(650亿参数)的预训练结果申请需要填写表格并由MetaAI审核。但是后来由于其预训练文件被互联网广泛传播之后,该模型已经可以由公开的磁链下载。
下载地址:magnet:?xt=urn:btih:cdee3052d85c697b84f4c1192f43a2276c0daea0&dn=LLaMA