DataLearner 标志DataLearnerAI
AI技术博客
大模型评测排行
大模型评测基准
AI大模型大全
AI资源仓库
AI工具导航

加载中...

DataLearner 标志DataLearner AI

专注大模型评测、数据资源与实践教学的知识平台,持续更新可落地的 AI 能力图谱。

产品

  • 评测榜单
  • 模型对比
  • 数据资源

资源

  • 部署教程
  • 原创内容
  • 工具导航

关于

  • 关于我们
  • 隐私政策
  • 数据收集方法
  • 联系我们

© 2026 DataLearner AI. DataLearner 持续整合行业数据与案例,为科研、企业与开发者提供可靠的大模型情报与实践指南。

隐私政策服务条款
页面导航
目录
大模型列表Lit-LLaMA
LI

Lit-LLaMA

Lit-LLaMA

发布时间: 2023-03-29更新于: 2023-03-29 20:52:42.062486
在线体验GitHubHugging Face
模型参数
650.0亿
上下文长度
2K
中文支持
不支持
推理能力

数据优先来自官方发布(GitHub、Hugging Face、论文),其次为评测基准官方结果,最后为第三方评测机构数据。 了解数据收集方法

模型基本信息

推理过程
不支持
上下文长度
2K tokens
最大输出长度
暂无数据
模型类型
基础大模型
发布时间
2023-03-29
模型文件大小
200
MoE架构
否
总参数 / 激活参数
650.0 亿 / 不涉及
知识截止
暂无数据
推理模式
暂无模式数据

开源和体验地址

代码开源状态
暂无数据
预训练权重开源
暂无数据
GitHub 源码
暂无GitHub开源地址
Hugging Face
暂无开源HuggingFace地址
在线体验
暂无在线体验地址

官方介绍与博客

官方论文
暂无官方论文
DataLearnerAI博客
暂无介绍博客

API接口信息

接口速度
暂无数据
暂无公开的 API 定价信息。

评测得分

当前尚无可展示的评测数据。

发布机构

Cerebras Systems
Cerebras Systems
查看发布机构详情

模型解读

Lit-LLaMA是由Lightning AI发布的基于LLaMA的开源模型。官方宣称这是独立实现的模型,使用的是nanoGPT的训练框架。


该模型最大的特点是完全开源,免费使用!


Lit-LLaMA的设计目标如下:

  1. 简单:一个文件实现所有的内容
  2. 准确:与原始模型数值等效
  3. 优化:消费级硬件即可运行
  4. 开源:完全开源,无任何附带条件




Lit-LLaMA的使用也非常简单:


1、下载代码:

git clone https://github.com/Lightning-AI/lit-llama
cd lit-llama


2、安装依赖

pip install -r requirements.txt


这就安装好了。



需要注意的是,需要对原始的LLaMA预训练文件进行转换。所以需要大家自己去LLaMA上下载原始预训练文件,然后通过Lit-LLaMA提供的转换脚本对原始预训练文件进行转换才可以!(可以看到,其实只要一个人转换就i可以,官方此举可能是为了避免造成自己传播LLaMA预训练结果而采取的措施!)





Lit-LLaMA对于资源的要求很低,正常情况下,70亿规模参数的模型只需要26GB的显存即可(A100的GPU)。如果在显存更小的设备运行,需要做量化。如下代码演示了采用量化的方式运行(此举会导致载入模型时间很长,但是只需要8G显存即可运行)。


python generate.py --quantize true --prompt "Hello, my name is"



基础模型

LLaMA
LLaMA
查看详情

DataLearner 官方微信

欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送

DataLearner 官方微信二维码