do

dolly-v2

基础大模型

dolly-v2

发布时间: 2023-04-12

模型参数(Parameters)
120.0
最高上下文长度(Context Length)
2K
是否支持中文
不支持
推理能力(Reasoning)

模型基本信息

最高上下文输入长度

2K tokens

最长输出结果
未披露
模型类型

基础大模型

发布时间

2023-04-12

模型预文件大小

23.8GB

开源和体验地址

代码开源状态
预训练权重开源
-
GitHub 源码
Hugging Face
在线体验
暂无在线体验地址

官方介绍与博客

官方论文
DataLearnerAI博客
暂无介绍博客

API接口信息

接口速度
暂无数据
接口价格
输入价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据
输出价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据

输入支持的模态

文本

输入不支持

图片

输入不支持

视频

输入不支持

音频

输入不支持

Embedding(向量)

输入不支持

输出支持的模态

文本

输出不支持

图片

输出不支持

视频

输出不支持

音频

输出不支持

Embedding(向量)

输出不支持

dolly-v2模型在各大评测榜单的评分

发布机构

模型介绍

Dolly 2.0是一种基于EleutherAI pythia模型家族的12亿参数的语言模型,专门在一个新的高质量人类生成的指令跟踪数据集上进行微调,这些数据集是由Databricks员工众包生成的。


这是继Databricks发布Dolly 1.0过去不到一个月时间又一个开源的Dolly模型。不过与Dolly 1.0不同的是,Dolly 2.0是基于pythia模型训练得到。


重点是Dolly 2.0的全部内容都是开源的,包括训练代码、数据集和模型权重,所有这些都适用于商业用途。这意味着任何组织都可以创建、拥有和定制强大的LLMs,可以与人们交流,而无需支付API访问费用或与第三方共享数据。


Dolly 2.0包含了一系列多个版本,最大的参数是120亿,还有70亿、30亿版本:即dolly-v2-12b、dolly-v2-7b和dolly-v2-3b。



关注DataLearnerAI公众号

关注DataLearnerAI微信公众号,接受最新大模型资讯

DataLearnerAI WeChat
Back to Top