DB

DBRX Instruct

聊天大模型

DBRX Instruct

发布时间: 2024-03-27

模型参数(Parameters)
1320.0
最高上下文长度(Context Length)
32K
是否支持中文
不支持
推理能力(Reasoning)

模型基本信息

最高上下文输入长度

32K tokens

最长输出结果
未披露
模型类型

聊天大模型

发布时间

2024-03-27

模型预文件大小

264GB

官方介绍与博客

官方论文
DataLearnerAI博客
暂无介绍博客

API接口信息

接口速度
暂无数据
接口价格
输入价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据
输出价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据

输入支持的模态

文本

输入不支持

图片

输入不支持

视频

输入不支持

音频

输入不支持

Embedding(向量)

输入不支持

输出支持的模态

文本

输出不支持

图片

输出不支持

视频

输出不支持

音频

输出不支持

Embedding(向量)

输出不支持

DBRX Instruct模型在各大评测榜单的评分

发布机构

模型介绍

DBRX Instruct是基于DBRX Base模型进行指令优化微调得到的一个大语言模型。它是由Databricks开源。包含了1320亿参数的混合专家大模型。共16个专家网络,每次推理有4个专家工作,激活360亿的参数。


该模型在各个评测结果上表现都很好,超过了另外两个著名的混合专家模型Mixtral-8*7B-MoE模型和马斯克开眼的Grok-1模型。前者是由MistralAI开源的著名的混合专家模型,也是此前开源大模型中表现最好的模型之一。

关于Mixtral-8*7B-MoE模型参考: https://www.datalearner.com/ai-models/pretrained-models/Mistral-7B-MoE 

关于Grok-1模型参考: https://www.datalearner.com/ai-models/pretrained-models/Grok-1 

关注DataLearnerAI公众号

关注DataLearnerAI微信公众号,接受最新大模型资讯

DataLearnerAI WeChat