Pa

PaLM 2

基础大模型

Pathways Language Model 2

发布时间: 2023-05-10

模型参数(Parameters)
3400.0
最高上下文长度(Context Length)
2K
是否支持中文
不支持
推理能力(Reasoning)

模型基本信息

最高上下文输入长度

2K tokens

最长输出结果
未披露
模型类型

基础大模型

发布时间

2023-05-10

模型预文件大小
暂无数据

开源和体验地址

代码开源状态
预训练权重开源
不开源 - 不开源
GitHub 源码
暂无GitHub开源地址
Hugging Face
暂无开源HuggingFace地址
在线体验
暂无在线体验地址

官方介绍与博客

官方论文
DataLearnerAI博客
暂无介绍博客

API接口信息

接口速度
暂无数据
接口价格
输入价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据
输出价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据

输入支持的模态

文本

输入不支持

图片

输入不支持

视频

输入不支持

音频

输入不支持

Embedding(向量)

输入不支持

输出支持的模态

文本

输出不支持

图片

输出不支持

视频

输出不支持

音频

输出不支持

Embedding(向量)

输出不支持

PaLM 2模型在各大评测榜单的评分

发布机构

模型介绍

-----------------------------2023年5月18日更新---------------------------------

2023年5月17日,CNBC报道了PaLM2的进一步信息。它是基于3.6万亿tokens数据训练的。而PaLM第一代的训练数据只包含了0.78万亿tokens。也就是说PaLM2的训练数据中的tokens约是PaLM的5倍。同时,PaLM2的参数约3400亿,也比前一代5400亿参数规模小很多。

参考链接: https://www.cnbc.com/2023/05/16/googles-palm-2-uses-nearly-five-times-more-text-data-than-predecessor.html 



Google发布的第二代语言模型,提升了多语言、推理和编码的能力。




Google在2023年的I/O大会上宣布了PaLM2模型。


作为PaLM的继任者,PaLM2的发布被谷歌寄予厚望。与OpenAI类似,谷歌官方没有透露很多关于模型的技术细节,虽然发布了一个92页的技术报告,但是,正文内容仅仅27页,引用和作者14页,剩余51页都是展示大量的测试结果。而前面的27页内容中也没有过多的细节描述。尽管如此,这里面依然有几个十分重要的结论供大家参考。

简要的结论如下:

  • PaLM2支持一百多种语言
  • PaLM2的模型参数比PaLM更小,但是能力更强
  • PaLM2与GPT-4相比很有竞争力
  • PaLM2有多个版本,最小的版本可以在移动端离线使用


关于PaLM2的技术分析可以参考: https://www.datalearner.com/blog/1051683818033012 





关注DataLearnerAI公众号

关注DataLearnerAI微信公众号,接受最新大模型资讯

DataLearnerAI WeChat