Ga

Galactica

基础大模型

Galactica

发布时间: 2022-11-15

模型参数(Parameters)
1200.0
最高上下文长度(Context Length)
2K
是否支持中文
不支持
推理能力(Reasoning)

模型基本信息

是否支持推理过程

不支持

最高上下文输入长度

2K tokens

最长输出结果
暂无数据
模型类型

基础大模型

发布时间

2022-11-15

模型预文件大小

228G

开源和体验地址

代码开源状态
预训练权重开源
-
GitHub 源码
暂无GitHub开源地址
Hugging Face
暂无开源HuggingFace地址
在线体验
暂无在线体验地址

官方介绍与博客

官方论文
DataLearnerAI博客
暂无介绍博客

API接口信息

接口速度(满分5分)
暂无数据
接口价格
输入价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据
输出价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据

输入支持的模态

文本

输入不支持

图片

输入不支持

视频

输入不支持

音频

输入不支持

Embedding(向量)

输入不支持

输出支持的模态

文本

输出不支持

图片

输出不支持

视频

输出不支持

音频

输出不支持

Embedding(向量)

输出不支持

Galactica模型在各大评测榜单的评分

发布机构

Facebook AI研究实验室
Facebook AI研究实验室
查看发布机构详情

模型介绍

Galactica是由PapersWithCode发布的科研领域的NLP预训练模型。

Galactica模型是在一个大型语料库上训练出来的,该语料库包括超过3.6亿条上下文引文和超过5000万条在不同来源中规范化的独特引用。这使得Galactica能够建议引文并帮助发现相关的论文。

Galactica模型的能力概括如下:

  1. 引用预测
  2. LaTeX预测
  3. 推理
  4. 文档生成
  5. 分子式生成
  6. 预测蛋白质注释

不过,不像其它企业喜欢说优点,官方也将这个模型的限制描述了出来:

  1. 语言模型会产生幻觉。不能保证语言模型的真实或可靠的输出,即使是像Galactica这样在高质量数据上训练出来的大型模型。在没有验证的情况下,千万不要听从语言模型的建议。
  2. 语言模型是有频率偏向的。Galactica很适合生成关于引用率高的概念的内容,但对于引用率较低的概念和想法来说就不那么好了,在这种情况下,产生幻觉的可能性更大。
  3. 语言模型经常是自信但错误的。Galactica生成的一些文本可能看起来非常真实和高度自信,但可能在重要方面有微妙的错误。对于高度技术性的内容来说,这种情况尤其明显。

但是,最重要的是,他们的模型是开源的!最大的模型1200亿参数,最小的只有1.25亿参数,二进制预训练文件大小235MB。最大的模型应该是200-300GB之间!

官方网站之前有模型的演示功能,但是由于争议过大,下架了。目前仅有Meta开源的版本。

官方网站: https://galactica.org/ 

GitHub开源地址: https://github.com/paperswithcode/galai 

关注DataLearnerAI公众号

关注DataLearnerAI微信公众号,接受最新大模型资讯

DataLearnerAI WeChat