Ki

Kimi k1.5 (Long-CoT)

推理大模型

Kimi k1.5 (Long-CoT)

发布时间: 2025-01-22

模型参数(Parameters)
未披露
最高上下文长度(Context Length)
128K
是否支持中文
支持
推理能力(Reasoning)

模型基本信息

最高上下文输入长度

128K tokens

最长输出结果
未披露
模型类型

推理大模型

发布时间

2025-01-22

模型预文件大小
暂无数据

开源和体验地址

代码开源状态
预训练权重开源
不开源 - 不开源
GitHub 源码
Hugging Face
暂无开源HuggingFace地址
在线体验
暂无在线体验地址

官方介绍与博客

官方论文
DataLearnerAI博客
暂无介绍博客

API接口信息

接口速度
暂无数据
接口价格
输入价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据
输出价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据

输入支持的模态

文本

输入不支持

图片

输入不支持

视频

输入不支持

音频

输入不支持

Embedding(向量)

输入不支持

输出支持的模态

文本

输出不支持

图片

输出不支持

视频

输出不支持

音频

输出不支持

Embedding(向量)

输出不支持

Kimi k1.5 (Long-CoT)模型在各大评测榜单的评分

评测基准名称
MATH-500
(数学推理)
评测结果:96.2

发布机构

普林斯顿大学
普林斯顿大学
查看发布机构详情

模型介绍

Kimi 1.5月之暗面(Kimi)团队发布的多模态推理大语言模型,致力于提升推理能力。Kimi 1.5分为多个版本,其中Long-CoT(长链式推理)版本专注于深度推理和复杂任务解决,能够处理需要长时间思考的推理任务。

Long-CoT模型特点

Kimi 1.5 Long-CoT版本通过扩展上下文窗口和强化学习技术,能够处理更加复杂的推理任务。相比Short-CoT模型,Long-CoT能够在更长的上下文中进行推理,适用于需要多个推理步骤的复杂问题。

  1. 深度推理能力:通过长上下文窗口(最大128k tokens)和强化学习,Long-CoT模型可以深入分析复杂问题并生成多步骤推理,适用于难度较高的推理任务。
  2. 多模态协同:该模型不仅处理文本数据,还可以处理视觉数据,适应图文结合的任务,能够在多模态场景中进行深度推理,如MathVistaMMMU等任务。
  3. 优化推理策略:引入了在线镜像下降等优化技术,使得模型在复杂任务中依然保持高效的推理能力,不依赖于传统的复杂推理技术,如蒙特卡洛树搜索。

基准测试结果

Kimi 1.5 Long-CoT在多个基准测试中表现出色,尤其在处理需要深度推理的任务时,展现了强大的能力:

  • MATH-500:得分96.2,在数学推理任务中表现卓越。
  • AIME 2024Pass@1得分77.5,在数学挑战中领先。
  • Codeforces94th percentile,在编程任务中展现了强大的问题解决能力。

与其他模型如GPT-4oClaude 3.5相比,Kimi 1.5 Long-CoT在复杂推理任务上表现更好,尤其在多步骤问题解决和长链式推理能力上具有优势。

应用前景

由于其强大的推理能力,Kimi 1.5 Long-CoT非常适合用于需要深度推理和多步骤分析的场景,如:

  • 高难度数学和逻辑推理:例如学术研究、数据分析等领域。
  • 复杂编程任务:解决编程中的挑战性问题,适用于AI辅助开发工具。
  • 跨模态推理:结合图像和文本的复杂任务,如视觉推理和图文问答。

结语

Kimi 1.5 Long-CoT通过扩展上下文窗口和优化推理策略,极大地提升了模型处理复杂任务的能力。其在多模态推理、深度分析和复杂问题解决方面的优势,使其成为未来高难度推理任务的理想选择。

关注DataLearnerAI公众号

关注DataLearnerAI微信公众号,接受最新大模型资讯

DataLearnerAI WeChat