In

InternLM Chat 7B 8K

聊天大模型

InternLM Chat 7B 8K

发布时间: 2023-06-03

模型参数(Parameters)
70.0
最高上下文长度(Context Length)
8K
是否支持中文
支持
推理能力(Reasoning)

模型基本信息

最高上下文输入长度

8K tokens

最长输出结果
未披露
模型类型

聊天大模型

发布时间

2023-06-03

模型预文件大小

14.5GB

开源和体验地址

代码开源状态
预训练权重开源
免费商用授权 - 免费商用授权
GitHub 源码
Hugging Face
在线体验
暂无在线体验地址

官方介绍与博客

API接口信息

接口速度
暂无数据
接口价格
输入价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据
输出价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据

输入支持的模态

文本

输入不支持

图片

输入不支持

视频

输入不支持

音频

输入不支持

Embedding(向量)

输入不支持

输出支持的模态

文本

输出不支持

图片

输出不支持

视频

输出不支持

音频

输出不支持

Embedding(向量)

输出不支持

InternLM Chat 7B 8K模型在各大评测榜单的评分

发布机构

上海人工智能实验室
上海人工智能实验室
查看发布机构详情

模型介绍

InternLM是由上海AI实验室、商汤科技、香港中文大学、上海交通大学一起发布的一个支持中文的多语言大模型。该模型在1.6万亿tokens上训练得到。


InternLM在多个方面都取得了很好的效果,包括只是理解、阅读理解、数学、编码等。根据官方的描述,InternLM比开源模型好很多,甚至好于ChatGPT!


更重要的是,InternLM对中文的支持很好,也非常理解中国文化。


下图是与当前著名大模型的对比,可以看到,InternLM基本上是除了GPT-4外最好的模型!


InternLM模型在AGIEval上的测试结果:


关注DataLearnerAI公众号

关注DataLearnerAI微信公众号,接受最新大模型资讯

DataLearnerAI WeChat