Qw

Qwen3-VL-Embedding-8B

embedding模型

Qwen3 Vision-Language Embedding 8B

发布时间: 2026-01-08

167
模型参数(Parameters)
80.0
最高上下文长度(Context Length)
32K
是否支持中文
支持
推理能力(Reasoning)

模型基本信息

是否支持推理过程

不支持

最高上下文输入长度

32K tokens

最长输出结果

4096 tokens

模型类型

embedding模型

发布时间

2026-01-08

模型预文件大小

16.32GB

推理模式
常规模式(Non-Thinking Mode)

开源和体验地址

代码开源状态
预训练权重开源
Apache 2.0 - 免费商用授权
GitHub 源码
Hugging Face
在线体验
暂无在线体验地址

API接口信息

接口速度(满分5分)
接口价格
暂无公开的 API 定价信息。

Qwen3-VL-Embedding-8B模型在各大评测榜单的评分

图像向量嵌入

共 1 项评测
MMEB-v2-Image normal
80.12
1 / 6

发布机构

Qwen3 Vision-Language Embedding 8B模型解读

Qwen3-VL-Embedding-8B 是 Qwen3-VL-Embedding 系列中的 旗舰级多模态向量模型,面向对检索质量要求极高的场景。模型在多模态理解能力、语义表达精度和跨模态对齐能力上进一步增强,适合用于效果优先的检索与 RAG 系统。


核心定位

  • 用于 高精度多模态向量召回
  • 面向 复杂查询、跨语言、跨模态、高噪声数据 场景
  • 作为多模态检索系统的“效果上限模型”

模型规格(官方公开信息整理)

项目说明

模型类型Multimodal Embedding(多模态向量模型)

参数规模8B

网络层数36 层

最大上下文长度32K tokens

向量维度4096(支持 MRL 动态裁剪)

输入模态文本 / 图片 / 截图 / 视频 / 混合模态

指令支持Instruction-aware(支持自定义任务指令)

多语言能力支持 30+ 种语言

量化支持支持低精度量化

许可证Apache 2.0(可商用)


模型特点

  • 更强的跨模态语义对齐能力 在图文、视频-文本、视觉文档检索等任务上具备更高的区分度。
  • 更高的向量表达上限 更大的模型容量使其在复杂语义、细粒度差异判断上更稳定。
  • MRL + 量化友好设计 即使在降维或量化后,仍能保持较强检索性能,适合在效果与成本之间灵活调整。
  • Instruction-aware 任务对齐 支持通过指令定制向量化目标,使模型适配不同业务任务而无需重新训练。

适用场景

  • 效果优先的多模态 RAG 系统
  • 视觉文档(PDF / 扫描件 / PPT)检索
  • 视频内容理解与检索
  • 跨语言、跨模态搜索
  • 高价值业务场景(法务、运维、专业知识库等)

关注DataLearnerAI公众号

关注DataLearnerAI微信公众号,接受最新大模型资讯

DataLearnerAI WeChat