数据学习
AI博客
原创AI博客
大模型技术博客
期刊会议
学术世界
期刊出版社
领域期刊
SCI/SCIE/SSCI/EI简介
期刊列表
会议列表
所有期刊分区
学术期刊信息检索
JCR期刊分区查询
CiteScore期刊分区查询
中科院期刊分区查询
管理 - UTD24期刊列表
管理 - AJG(ABS)期刊星级查询
管理 - FMS推荐期刊列表
计算机 - CCF推荐期刊会议列表
南大核心(CSSCI)
合工大小核心
合工大大核心
AI资源仓库
AI领域与任务
AI研究机构
AI学术期刊
AI论文快讯
AI数据集
AI开源工具
数据推荐
AI大模型
国产AI大模型生态全览
AI模型概览图
AI模型月报
AI基础大模型
AI大模型排行榜
大模型综合能力排行榜
大模型编程能力排行榜
LMSys ChatBot Arena排行榜
Berkeley大模型工具使用能力排行榜
OpenLLMLeaderboard中国站
AI大模型大全
大模型部署教程
在线聊天大模型列表
2023年度AI产品总结
预训练模型列表
LIMA
LIMA - Less Is More for Alignment
模型详细情况和参数
LIMA
模型全称
Less Is More for Alignment
模型简称
LIMA
模型类型
基础大模型
发布日期
2023-05-22
预训练文件大小
未知
是否支持中文(中文优化)
否
最高支持的上下文长度
2K
模型参数数量(亿)
650.0
模型代码开源协议
预训练结果开源商用情况
-
模型GitHub链接
暂无
模型HuggingFace链接
暂无
在线演示地址
暂无
DataLearnerAI的模型介绍
官方博客论文
LIMA: Less Is More for Alignment
基础模型
LLaMA
查看详情
发布机构
Facebook AI研究实验室
Less Is More for Alignment 简介
MetaAI发布的以少胜多的基于LLaMA微调的模型。
欢迎大家关注DataLearner官方微信,接受最新的AI模型和技术推送
LIMA所属的领域
自然语言处理
Natural Language Process
35个资源
LIMA相关的任务
问答系统
Question Answering
35个资源