h2

h2oGPT

基础大模型

h2oGPT

发布时间: 2023-04-19

模型参数(Parameters)
200.0
最高上下文长度(Context Length)
2K
是否支持中文
不支持
推理能力(Reasoning)

模型基本信息

是否支持推理过程

不支持

最高上下文输入长度

2K tokens

最长输出结果
暂无数据
模型类型

基础大模型

发布时间

2023-04-19

模型预文件大小

41.4GB

开源和体验地址

代码开源状态
预训练权重开源
-
GitHub 源码
Hugging Face
在线体验
暂无在线体验地址

官方介绍与博客

官方论文
暂无官方论文
DataLearnerAI博客
暂无介绍博客

API接口信息

接口速度(满分5分)
暂无数据
接口价格
输入价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据
输出价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据

输入支持的模态

文本

输入不支持

图片

输入不支持

视频

输入不支持

音频

输入不支持

Embedding(向量)

输入不支持

输出支持的模态

文本

输出不支持

图片

输出不支持

视频

输出不支持

音频

输出不支持

Embedding(向量)

输出不支持

h2oGPT模型在各大评测榜单的评分

模型介绍

h2oGPT是H2O公司开源的一个类似ChatGPT的应用。是基于EleutherAI发布的GPT-NeoX-20b模型微调的结果。使用的是H2O自己收集的数据集。


h2oGPT的最大特点是具有完全宽松、商业可用的代码、数据和模型。


使用的是h2ogpt-oig-oasst1-instruct-cleaned-v1数据集做微调。H2O.ai 的 h2ogpt-oig-oasst1-instruct-cleaned-v1 是一个用于大型语言模型微调的开源指导类型数据集,可用于商业用途,包含349837条数据,共575MB。数据集的每一条有3列,分别是输入、来源和prompt_type。数据样例如下:



 数据集地址:https://huggingface.co/datasets/h2oai/h2ogpt-oig-oasst1-instruct-cleaned-v1 



Foundation Model

GPT-Neo(X)

GPT-Neo(X)

View Details

关注DataLearnerAI公众号

关注DataLearnerAI微信公众号,接受最新大模型资讯

DataLearnerAI WeChat