MiniCPM-1B-SFT
发布时间: 2024-04-10
4K tokens
基础大模型
2024-04-10
2.72GB
输入不支持
输入不支持
输入不支持
输入不支持
输入不支持
输出不支持
输出不支持
输出不支持
输出不支持
输出不支持
面壁智能开源的12亿参数规模的大语言模型,官方宣称其评测结果与70亿参数规模的大模型接近。
MiniCPM系列模型的参数规模都不超过30亿(不包含MiniCPM-8×2B-MoE,这个136亿,参考: https://www.datalearner.com/ai-models/pretrained-models/MiniCPM-MoE-8x2B ),因此推理显存要求很低,微调也仅需一个消费级显卡即可:
关注DataLearnerAI微信公众号,接受最新大模型资讯