Op

OpenLLaMA 13B

基础大模型

OpenLLaMA 13B

发布时间: 2023-06-15

模型参数(Parameters)
130.0
最高上下文长度(Context Length)
2K
是否支持中文
不支持
推理能力(Reasoning)

模型基本信息

最高上下文输入长度

2K tokens

最长输出结果
未披露
模型类型

基础大模型

发布时间

2023-06-15

模型预文件大小

26GB

开源和体验地址

代码开源状态
预训练权重开源
Apache 2.0 - 免费商用授权
GitHub 源码
Hugging Face
在线体验
暂无在线体验地址

官方介绍与博客

官方论文
DataLearnerAI博客
暂无介绍博客

API接口信息

接口速度
暂无数据
接口价格
输入价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据
输出价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据

输入支持的模态

文本

输入不支持

图片

输入不支持

视频

输入不支持

音频

输入不支持

Embedding(向量)

输入不支持

输出支持的模态

文本

输出不支持

图片

输出不支持

视频

输出不支持

音频

输出不支持

Embedding(向量)

输出不支持

OpenLLaMA 13B模型在各大评测榜单的评分

发布机构

Berkeley Artificial Intelligence Research
Berkeley Artificial Intelligence Research
查看发布机构详情

模型介绍

OpenLLaMA 13B是OpenLLaMA系列发布的130亿参数规模的模型。OpenLLaMA是由UC Berkeley的研究人员发起的一项复刻MetaAI LLaMA的开源项目。目的是完全复现并发布开源版本的LLaMA(原始的LLaMA模型不允许商用)。

关注DataLearnerAI公众号

关注DataLearnerAI微信公众号,接受最新大模型资讯

DataLearnerAI WeChat