Ba

Baichuan2-192K

基础大模型

Baichuan2-192K

发布时间: 2023-10-30

模型参数(Parameters)
530.0
最高上下文长度(Context Length)
192K
是否支持中文
支持
推理能力(Reasoning)

模型基本信息

最高上下文输入长度

192K tokens

最长输出结果
未披露
模型类型

基础大模型

发布时间

2023-10-30

模型预文件大小
暂无数据

开源和体验地址

代码开源状态
预训练权重开源
不开源 - 不开源
GitHub 源码
暂无GitHub开源地址
Hugging Face
暂无开源HuggingFace地址
在线体验
暂无在线体验地址

官方介绍与博客

API接口信息

接口速度
暂无数据
接口价格
输入价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据
输出价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据

输入支持的模态

文本

输入不支持

图片

输入不支持

视频

输入不支持

音频

输入不支持

Embedding(向量)

输入不支持

输出支持的模态

文本

输出不支持

图片

输出不支持

视频

输出不支持

音频

输出不支持

Embedding(向量)

输出不支持

Baichuan2-192K模型在各大评测榜单的评分

发布机构

模型介绍

Baichuan2-192K是百川智能发布的支持超长上下文输入的大语言模型,是截止目前位置已知的商用领域最长上下文。而此前发布的最长上下文大模型是Antropic发布的Claude2-100K。Baichuan2-192K的上下文长度支持几乎是其2倍。



官方宣称,在实际测试中,Baichuan2-192K可以一次处理35万个汉字,而Claude2-100K实际测试结果约8万个汉字,而GPT4-32K只有约2.5万字。


Baichuan2-192K在实际的长上下文测试表现也很好:



在超过80K之后的测试中,Baichuan2-192K遥遥领先:



不过,Baichuan2-192K是商用模型,目前只允许企业客户使用。官方透露,Baichuan2-192K还支持多模态输入和复杂的理解,未来十分值得期待。


详细介绍: https://www.datalearner.com/llm-blogs/Baichuan2-192K 







关注DataLearnerAI公众号

关注DataLearnerAI微信公众号,接受最新大模型资讯

DataLearnerAI WeChat