模型详细情况和参数
Galactica是由PapersWithCode发布的科研领域的NLP预训练模型。
Galactica模型是在一个大型语料库上训练出来的,该语料库包括超过3.6亿条上下文引文和超过5000万条在不同来源中规范化的独特引用。这使得Galactica能够建议引文并帮助发现相关的论文。
Galactica模型的能力概括如下:
不过,不像其它企业喜欢说优点,官方也将这个模型的限制描述了出来:
但是,最重要的是,他们的模型是开源的!最大的模型1200亿参数,最小的只有1.25亿参数,二进制预训练文件大小235MB。最大的模型应该是200-300GB之间!
官方网站之前有模型的演示功能,但是由于争议过大,下架了。目前仅有Meta开源的版本。
官方网站: https://galactica.org/
GitHub开源地址: https://github.com/paperswithcode/galai