Mistral NeMo-Base-12B - Mistral NeMo-Base 12B

模型详细情况和参数

Mistral NeMo-Base-12B

模型全称
Mistral NeMo-Base 12B
模型简称
Mistral NeMo-Base-12B
模型类型
基础大模型
发布日期
2024-07-18
预训练文件大小
24.51GB
是否支持中文(中文优化)
最高支持的上下文长度
128K
模型参数数量(亿)
120.0
模型代码开源协议
Apache 2.0
预训练结果开源商用情况
Apache 2.0 - 免费商用授权
模型GitHub链接
暂无
在线演示地址
暂无
DataLearnerAI的模型介绍
官方博客论文
Mistral NeMo
基础模型
无基础模型
发布机构

Mistral NeMo-Base 12B 简介

Mistral NeMo-Base-12B是MistralAI开源的最新的120亿参数规模的大语言模型,是其开源的70亿参数规模的Mistral 7B模型的继任者,这意味着未来MistralAI可能不再会开源Mistral 7B,而是用Mistral Nemo代替。


尽管该模型在MMLU得分上没有很突出,但是在推理等任务的表现上效果很好。

欢迎大家关注DataLearner官方微信,接受最新的AI模型和技术推送

Mistral NeMo-Base-12B所属的领域
自然语言处理

自然语言处理

Natural Language Process

35个资源

Mistral NeMo-Base-12B相关的任务
问答系统

问答系统

Question Answering

35个资源