DataLearner 标志DataLearnerAI
最新AI资讯
大模型排行榜
大模型评测基准
大模型列表
大模型对比
资源中心
工具
语言中文
DataLearner 标志DataLearner AI

专注大模型评测、数据资源与实践教学的知识平台,持续更新可落地的 AI 能力图谱。

产品

  • 评测榜单
  • 模型对比
  • 数据资源

资源

  • 部署教程
  • 原创内容
  • 工具导航

关于

  • 关于我们
  • 隐私政策
  • 数据收集方法
  • 联系我们

© 2026 DataLearner AI. DataLearner 持续整合行业数据与案例,为科研、企业与开发者提供可靠的大模型情报与实践指南。

隐私政策服务条款
页面导航
目录
大模型列表V-MoE
V-

V-MoE

基础大模型

Vision Mixture of Experts

发布时间: 2021-06-10更新于: 2023-03-13 11:29:33.985589
在线体验GitHubHugging FaceCompare
模型参数
150.0亿
上下文长度
2K
中文支持
不支持
推理能力

Vision Mixture of Experts 是由 Google Research 发布的 AI 模型,发布时间为 2021-06-10,定位为 基础大模型,参数规模约为 150.0B,上下文长度为 2K。

数据优先来自官方发布(GitHub、Hugging Face、论文),其次为评测基准官方结果,最后为第三方评测机构数据。 了解数据收集方法

V-MoE

模型基本信息

推理过程
不支持
思考模式
不支持思考模式
上下文长度
2K tokens
最大输出长度
暂无数据
模型类型
基础大模型
发布时间
2021-06-10
模型文件大小
暂无数据
MoE架构
否
总参数 / 激活参数
150.0 亿 / 不涉及
知识截止
暂无数据
V-MoE

开源和体验地址

代码开源状态
暂无数据
预训练权重开源
暂无数据
GitHub 源码
暂无GitHub开源地址
Hugging Face
暂无开源HuggingFace地址
在线体验
暂无在线体验地址
V-MoE

官方介绍与博客

官方论文
Scaling Vision with Sparse Mixture of Experts
DataLearnerAI博客
暂无介绍博客
V-MoE

API接口信息

接口速度
暂无数据
暂无公开的 API 定价信息。
V-MoE

评测结果

当前尚无可展示的评测数据。
V-MoE

发布机构

Google Research
Google Research
查看发布机构详情
Vision Mixture of Experts

模型解读

视觉Transformers (ViT)已经成为视觉任务的最佳架构之一。ViT首先将图像分割成同等大小的方形斑块。这些被称为标记,是一个从语言模型继承下来的术语。然而,与最大的语言模型相比,ViT模型在参数数量和计算量上要小几个数量级。


为了大规模地扩展视觉模型,我们用独立的前馈层的稀疏混合物(我们称之为专家)取代了ViT架构中的一些密集前馈层(FFN)。一个可学习的路由器层为每个单独的标记选择哪些专家(以及他们的加权方式)。也就是说,来自同一图像的不同标记可能会被路由到不同的专家。每个标记最多只能被送到K(通常是1或2)个专家那里,总共有E个专家(在我们的实验中,E通常是32)。这使得模型的规模可以扩展,同时保持每个令牌的计算量大致不变。下图更详细地显示了编码器模块的结构。

DataLearner 官方微信

欢迎关注 DataLearner 官方微信,获得最新 AI 技术推送

DataLearner 官方微信二维码