De

DeepSeek LLM 67B Chat

聊天大模型

DeepSeek LLM 67B Chat

发布时间: 2023-11-29

模型参数(Parameters)
670.0
最高上下文长度(Context Length)
4K
是否支持中文
支持
推理能力(Reasoning)

模型基本信息

是否支持推理过程

不支持

最高上下文输入长度

4K tokens

最长输出结果
暂无数据
模型类型

聊天大模型

发布时间

2023-11-29

模型预文件大小

134GB

开源和体验地址

代码开源状态
预训练权重开源
DEEPSEEK LICENSE AGREEMENT - 免费商用授权
GitHub 源码
Hugging Face
在线体验
暂无在线体验地址

官方介绍与博客

官方论文
DataLearnerAI博客
暂无介绍博客

API接口信息

接口速度(满分5分)
暂无数据
接口价格
输入价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据
输出价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据

输入支持的模态

文本

输入不支持

图片

输入不支持

视频

输入不支持

音频

输入不支持

Embedding(向量)

输入不支持

输出支持的模态

文本

输出不支持

图片

输出不支持

视频

输出不支持

音频

输出不支持

Embedding(向量)

输出不支持

DeepSeek LLM 67B Chat模型在各大评测榜单的评分

发布机构

模型介绍

DeepSeek LLM 67B Chat是DeepSeekAI开源的一个大语言模型。DeepSeekAI是中国知名私募幻方量化旗下的一个人工智能大模型企业。


DeepSeek LLM 67B Chat是他们开源的一个670亿参数版本的大语言模型,其效果与LLaMA2-70B差不多。但是中文任务评测结果明显好于LLaMA2-70B。DeepSeek LLM模型本身包含了四个版本,2个参数规模等级,分别是7B和67B,而模型本身区分Base版本的基座模型和对话调优的Chat版本。


DeepSeek LLM 67B Chat这里说的是670亿参数的基座版本。DeepSeekLLM四个版本的评测数据如下:

ModelTriviaQAMMLUGSM8KHumanEvalBBHC-EvalCMMLUChineseQA
DeepSeek LLM 7B Base59.748.217.426.239.545.047.278.0
DeepSeek LLM 67B Base78.971.363.442.768.766.170.887.6
DeepSeek LLM 7B Chat57.949.462.648.242.347.049.775.0
DeepSeek LLM 67B Chat81.571.184.173.871.765.267.885.1
LLaMA-2-7B63.845.815.514.638.533.932.621.5
LLaMA-2-70B79.584.058.428.762.951.453.150.2


四个版本模型信息卡如下:


模型名称DataLearnerAI模型信息卡地址
DeepSeek LLM 7B Base https://www.datalearner.com/ai-models/pretrained-models/deepseek-llm-7b-base 
DeepSeek LLM 67B Base78.9
DeepSeek LLM 7B Chat https://www.datalearner.com/ai-models/pretrained-models/deepseek-llm-7b-chat 
DeepSeek LLM 67B Chat81.5


关注DataLearnerAI公众号

关注DataLearnerAI微信公众号,接受最新大模型资讯

DataLearnerAI WeChat