Pa

PaLM-E

基础大模型

Pathways Language Model-Embodied

发布时间: 2023-03-06

模型参数(Parameters)
5620.0
最高上下文长度(Context Length)
2K
是否支持中文
不支持
推理能力(Reasoning)

模型基本信息

最高上下文输入长度

2K tokens

最长输出结果
未披露
模型类型

基础大模型

发布时间

2023-03-06

模型预文件大小
暂无数据

开源和体验地址

代码开源状态
预训练权重开源
-
GitHub 源码
暂无GitHub开源地址
Hugging Face
暂无开源HuggingFace地址
在线体验
暂无在线体验地址

官方介绍与博客

官方论文
DataLearnerAI博客
暂无介绍博客

API接口信息

接口速度
暂无数据
接口价格
输入价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据
输出价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据

输入支持的模态

文本

输入不支持

图片

输入不支持

视频

输入不支持

音频

输入不支持

Embedding(向量)

输入不支持

输出支持的模态

文本

输出不支持

图片

输出不支持

视频

输出不支持

音频

输出不支持

Embedding(向量)

输出不支持

PaLM-E模型在各大评测榜单的评分

发布机构

模型介绍

PaLM-E是谷歌发布的最新的多模态预训练大模型。该模型是从PaLM( 模型卡:https://www.datalearner.com/ai-models/pretrained-models/PaLM )演化。


大型语言模型已经被证明可以完成复杂的任务。然而,在现实世界中实现一般推理,例如用于机器人问题,提出了接地的挑战。我们提出了具身语言模型,以直接将现实世界的连续传感器模式纳入语言模型,从而建立单词和感知之间的联系。我们的具身语言模型的输入是多模式的句子,这些句子交织着视觉、连续状态估计和文本输入编码。我们将这些编码与预先训练好的大型语言模型一起进行端到端训练,用于多个具身任务,包括连续的机器人操作计划、视觉问题回答和字幕。我们的评估表明,PaLM-E,一个单一的大型体现性多模态模型,可以解决各种体现性推理任务,来自各种观察模式,在多个体现性上,并且进一步表现出积极的转移:该模型从互联网规模的语言、视觉和视觉语言领域的不同联合训练中受益。我们最大的模型,PaLM-E-562B,有562B个参数,除了在机器人任务上进行训练外,还是一个视觉语言通才,在OK-VQA上有最先进的表现,并且随着规模的扩大,保持了通才的语言能力。




不过,这个模型目前没有开源。

关注DataLearnerAI公众号

关注DataLearnerAI微信公众号,接受最新大模型资讯

DataLearnerAI WeChat