Qw

Qwen3-Embedding-8B

embedding模型

Qwen3-Embedding-8B

发布时间: 2025-06-05 65

模型参数(Parameters)
80.0
最高上下文长度(Context Length)
32K
是否支持中文
支持
推理能力(Reasoning)

模型基本信息

是否支持推理过程

不支持

最高上下文输入长度

32K tokens

最长输出结果

4096 tokens

模型类型

embedding模型

发布时间

2025-06-05

模型预文件大小

16GB

开源和体验地址

代码开源状态
预训练权重开源
Apache 2.0 - 免费商用授权
GitHub 源码
暂无GitHub开源地址
Hugging Face
在线体验
暂无在线体验地址

API接口信息

接口速度(满分5分)
接口价格
输入价格:
  • 文本:
  • 图片:
  • 音频:
  • 视频:
  • Embedding:
输出价格:
  • 文本:
  • 图片:
  • 音频:
  • 视频:
  • Embedding:

输入支持的模态

文本

输入支持

图片

输入不支持

视频

输入不支持

音频

输入不支持

Embedding(向量)

输入不支持

输出支持的模态

文本

输出不支持

图片

输出不支持

视频

输出不支持

音频

输出不支持

Embedding(向量)

输出支持

Qwen3-Embedding-8B模型在各大评测榜单的评分

发布机构

模型介绍

Qwen3-Embedding-8B是阿里开源的80亿参数规模的向量大模型,支持100+多种语言。这是Qwen3 Embedding系列开源模型中的一员,该系列基于Qwen3基础模型开发,专为文本嵌入、检索和排序任务而设计。


Qwen3-Embedding-8B模型继承了其基础模型的多语言理解、长文本理解和推理能力。该模型拥有80亿参数,上下文长度为32k,嵌入维度最高可达4096,并支持用户自定义从32到4096的输出维度。


核心特性

      模型架构与训练

      Qwen3-Embedding-8B基于Qwen3基础模型,采用双编码器(dual-encoder)架构设计,并通过LoRA进行微调,以保留和增强基础模型的文本理解能力。该模型通过处理单个文本段落作为输入,并利用最后一个[EOS]标记对应的隐藏状态向量来提取语义表示。


      其训练过程遵循一个三阶段范式:首先是使用大量弱监督数据进行对比预训练;第二阶段使用高质量的标记数据进行监督训练;最后阶段则通过合并策略整合多个候选模型以提升整体性能。


      性能表现


      Qwen3-Embedding-8B在多个基准测试中取得了领先的成绩。

          关注DataLearnerAI公众号

          关注DataLearnerAI微信公众号,接受最新大模型资讯

          DataLearnerAI WeChat