LI

Lit-LLaMA

Lit-LLaMA

发布时间: 2023-03-29437
模型参数
650.0亿
上下文长度
2K
中文支持
不支持
推理能力

模型基本信息

推理过程
不支持
上下文长度
2K tokens
最大输出长度
暂无数据
模型类型
暂无数据
发布时间
2023-03-29
模型文件大小
200
MoE架构
总参数 / 激活参数
650.0 亿 / 不涉及
知识截止
暂无数据
推理模式
暂无模式数据

开源和体验地址

代码开源状态
暂无数据
预训练权重开源
暂无数据
GitHub 源码
暂无GitHub开源地址
Hugging Face
暂无开源HuggingFace地址
在线体验
暂无在线体验地址

官方介绍与博客

官方论文
暂无官方论文
DataLearnerAI博客
暂无介绍博客

API接口信息

接口速度
暂无数据
暂无公开的 API 定价信息。

评测得分

当前尚无可展示的评测数据。

发布机构

模型解读

Lit-LLaMA是由Lightning AI发布的基于LLaMA的开源模型。官方宣称这是独立实现的模型,使用的是nanoGPT的训练框架。


该模型最大的特点是完全开源,免费使用!


Lit-LLaMA的设计目标如下:

  1. 简单:一个文件实现所有的内容
  2. 准确:与原始模型数值等效
  3. 优化:消费级硬件即可运行
  4. 开源:完全开源,无任何附带条件




Lit-LLaMA的使用也非常简单:


1、下载代码:

git clone https://github.com/Lightning-AI/lit-llama
cd lit-llama


2、安装依赖

pip install -r requirements.txt


这就安装好了。



需要注意的是,需要对原始的LLaMA预训练文件进行转换。所以需要大家自己去LLaMA上下载原始预训练文件,然后通过Lit-LLaMA提供的转换脚本对原始预训练文件进行转换才可以!(可以看到,其实只要一个人转换就i可以,官方此举可能是为了避免造成自己传播LLaMA预训练结果而采取的措施!)





Lit-LLaMA对于资源的要求很低,正常情况下,70亿规模参数的模型只需要26GB的显存即可(A100的GPU)。如果在显存更小的设备运行,需要做量化。如下代码演示了采用量化的方式运行(此举会导致载入模型时间很长,但是只需要8G显存即可运行)。


python generate.py --quantize true --prompt "Hello, my name is"



基础模型

DataLearner 官方微信

欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送

DataLearner 官方微信二维码