De

DeepSeek-R1-Lite-Preview

推理大模型

DeepSeek-R1-Lite-Preview

发布时间: 2024-11-20

模型参数(Parameters)
未披露
最高上下文长度(Context Length)
128K
是否支持中文
支持
推理能力(Reasoning)

模型基本信息

最高上下文输入长度

128K tokens

最长输出结果
未披露
模型类型

推理大模型

发布时间

2024-11-20

模型预文件大小

0GB

开源和体验地址

代码开源状态
预训练权重开源
DEEPSEEK LICENSE AGREEMENT - 免费商用授权
GitHub 源码
暂无GitHub开源地址
Hugging Face
暂无开源HuggingFace地址
在线体验

官方介绍与博客

API接口信息

接口速度
暂无数据
接口价格
输入价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据
输出价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据

输入支持的模态

文本

输入不支持

图片

输入不支持

视频

输入不支持

音频

输入不支持

Embedding(向量)

输入不支持

输出支持的模态

文本

输出不支持

图片

输出不支持

视频

输出不支持

音频

输出不支持

Embedding(向量)

输出不支持

DeepSeek-R1-Lite-Preview模型在各大评测榜单的评分

发布机构

模型介绍

DeepSeek-R1-Lite-Preview是DeepSeek发布的一个推理大模型,对标的是OpenAI的o1模型(参考: https://www.datalearner.com/blog/1051726184271628 )。官方宣称其在高难度推理问题上表现相比较o1模型非常具有竞争力,此外,该模型的思考过程还是公开的。


性能表现

在技术领域表现出色,尤其是高级数学(MATH-500 得分 91.6)和编程竞赛(Codeforces 得分 1450),超越了 OpenAI o1-preview 和 Claude 3.5 Sonnet 等竞争对手。然而,在一般知识和逻辑推理上相对较弱,例如 GPQA Diamond 和 Zebra Logic 得分低于 OpenAI 的同类模型​。


功能亮点

透明推理能力是其主要特点。与 ChatGPT 不同,该模型可以展示逐步推理的详细过程,提高了回答的可解释性和可信度​。相比OpenAI的o1模型,在特定技术任务中具有明显优势,但在处理速度方面稍逊。例如,虽然解决问题的时间比 ChatGPT 更长,但其逐步推理更适合复杂问题​。


当前,该模型还未开源,但是官方宣布未来会开源,目前可以在官网使用:DeepSeek官方提供DeepSeek-R1-Lite-Preview模型每日 50 条消息的限制,并通过 "Deep Think" 功能支持逻辑顺序性较强的问题解决。

关注DataLearnerAI公众号

关注DataLearnerAI微信公众号,接受最新大模型资讯

DataLearnerAI WeChat
Back to Top