Mi

Mistral-Small-3.1-24B-Base-2503

基础大模型

Mistral-Small-3.1-24B-Base-2503

发布时间: 2025-03-17

模型参数(Parameters)
240.0
最高上下文长度(Context Length)
128K
是否支持中文
支持
推理能力(Reasoning)

模型基本信息

最高上下文输入长度

128K tokens

最长输出结果
未披露
模型类型

基础大模型

发布时间

2025-03-17

模型预文件大小

48GB

开源和体验地址

代码开源状态
预训练权重开源
Apache 2.0 - 免费商用授权
GitHub 源码
暂无GitHub开源地址
Hugging Face
在线体验
暂无在线体验地址

API接口信息

接口速度
暂无数据
接口价格
输入价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据
输出价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据

输入支持的模态

文本

输入不支持

图片

输入不支持

视频

输入不支持

音频

输入不支持

Embedding(向量)

输入不支持

输出支持的模态

文本

输出不支持

图片

输出不支持

视频

输出不支持

音频

输出不支持

Embedding(向量)

输出不支持

Mistral-Small-3.1-24B-Base-2503模型在各大评测榜单的评分

发布机构

模型介绍

Mistral Small 3.1 24B是MistralAI在2025年3月17日发布的240亿参数规模的多模态大模型


Mistral-Small-3.1-24B-Base-2503是其中的预训练基座版本,本版模型没有经过任务任务的微调或者指令微调,因此适合用于作为基座模型在其它领域微调后应用。官方也发布了一个基于本版本微调后的模型,即Mistral-Small-3.1-24B-Instruct-2503。


关于本模型的详细介绍参考DataLearnerAI博客: https://www.datalearner.com/blog/1051742287310400 

关注DataLearnerAI公众号

关注DataLearnerAI微信公众号,接受最新大模型资讯

DataLearnerAI WeChat
Back to Top