Gr

Grok-0

聊天大模型

Grok-0

发布时间: 2023-11-05

模型参数(Parameters)
330.0
最高上下文长度(Context Length)
8K
是否支持中文
不支持
推理能力(Reasoning)

模型基本信息

最高上下文输入长度

8K tokens

最长输出结果
未披露
模型类型

聊天大模型

发布时间

2023-11-05

模型预文件大小

0

开源和体验地址

代码开源状态
预训练权重开源
不开源 - 不开源
GitHub 源码
暂无GitHub开源地址
Hugging Face
暂无开源HuggingFace地址
在线体验
暂无在线体验地址

官方介绍与博客

官方论文
DataLearnerAI博客
暂无介绍博客

API接口信息

接口速度
暂无数据
接口价格
输入价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据
输出价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据

输入支持的模态

文本

输入不支持

图片

输入不支持

视频

输入不支持

音频

输入不支持

Embedding(向量)

输入不支持

输出支持的模态

文本

输出不支持

图片

输出不支持

视频

输出不支持

音频

输出不支持

Embedding(向量)

输出不支持

Grok-0模型在各大评测榜单的评分

模型介绍

Grok-0模型是xAI公司在开发Grok-1模型之前的一个原型版本。从您提供的博客内容中,我们可以看到Grok-0模型拥有33亿的参数,这个早期模型在标准的语言模型基准测试中接近LLaMa 2(70B)的能力,但只使用了一半的训练资源。Grok-0模型在某些基准测试中的表现如下:

  • GSM8k(中学数学词问题):56.8%
  • MMLU(多学科多选题):65.7%
  • HumanEval(Python代码完成任务):39.7%
  • MATH(中学和高中数学问题):15.7%

这些基准测试成绩显示了Grok-0在数学和编程任务中的表现。随后,在过去的两个月中,xAI团队对推理和编码能力进行了重大改进,开发出了Grok-1模型,该模型在HumanEval编码任务和MMLU任务中的表现分别提高到了63.2%和73%。通过对比Grok-0和Grok-1在这些基准测试中的表现,可以看出Grok-1在推理和编码能力上的明显提升。

关注DataLearnerAI公众号

关注DataLearnerAI微信公众号,接受最新大模型资讯

DataLearnerAI WeChat