Qw

Qwen3-VL-Embedding-2B

embedding模型

Qwen3 Vision-Language Embedding 2B

发布时间: 2026-01-08

169
模型参数(Parameters)
20.0
最高上下文长度(Context Length)
32K
是否支持中文
支持
推理能力(Reasoning)

模型基本信息

是否支持推理过程

不支持

最高上下文输入长度

32K tokens

最长输出结果

2048 tokens

模型类型

embedding模型

发布时间

2026-01-08

模型预文件大小

4.26GB

推理模式
常规模式(Non-Thinking Mode)

开源和体验地址

代码开源状态
预训练权重开源
Apache 2.0 - 免费商用授权
GitHub 源码
Hugging Face
在线体验
暂无在线体验地址

API接口信息

接口速度(满分5分)
接口价格
暂无公开的 API 定价信息。

Qwen3-VL-Embedding-2B模型在各大评测榜单的评分

图像向量嵌入

共 1 项评测
MMEB-v2-Image normal
74.96
4 / 6

发布机构

Qwen3 Vision-Language Embedding 2B模型解读

Qwen3-VL-Embedding-2B 是 Qwen 团队推出的 多模态向量表示模型,定位于检索系统和 RAG 系统中的第一阶段召回(Recall)。模型基于 Qwen3-VL 视觉语言架构构建,能够将文本、图片、截图(视觉文档)、视频等多种模态统一编码为稠密向量,用于相似度计算和大规模检索。

该模型在参数规模、性能与推理成本之间取得较好平衡,适合在大规模向量库、在线检索服务和资源受限环境中使用。


核心定位

  • 用于 多模态检索 / 多模态 RAG 的向量召回阶段
  • 支持 跨模态检索(文本搜图、文本搜视频、文本搜截图等)
  • 面向 高吞吐、低延迟、可规模化部署 的生产场景

在典型系统中,Qwen3-VL-Embedding-2B 常作为默认向量模型,与多模态 Reranker 组成两阶段检索链路。


模型规格(官方公开信息整理)

项目说明

模型类型Multimodal Embedding(多模态向量模型)

参数规模2B

网络层数28 层

最大上下文长度32K tokens

向量维度2048(支持 MRL 动态裁剪)

输入模态文本 / 图片 / 截图 / 视频 / 混合模态

指令支持Instruction-aware(支持自定义任务指令)

多语言能力支持 30+ 种语言

量化支持支持低精度量化(如 int8)

许可证Apache 2.0(可商用)


模型特点

  • 统一多模态表示空间 不同模态的数据被映射到同一向量空间,可直接进行跨模态相似度计算。
  • 支持长上下文输入 32K 上下文长度适合长文档、长截图序列和视频片段编码。
  • MRL(Matryoshka Representation Learning) 支持在不重新编码的情况下截取不同维度的向量,用于在存储成本、检索速度和效果之间做权衡。
  • Instruction-aware 向量化 可通过指令明确检索任务目标,使向量更贴近具体业务定义的“相关性”。

适用场景

  • 多模态 RAG 的第一阶段召回
  • 图片 / 视频 / 文档截图检索
  • 企业知识库向量化
  • 大规模在线搜索系统
  • 对算力和延迟敏感的生产环境

关注DataLearnerAI公众号

关注DataLearnerAI微信公众号,接受最新大模型资讯

DataLearnerAI WeChat