Qw

Qwen3.5-397B-A17B

多模态大模型

Qwen3.5-397B-A17B

发布时间: 2026-02-16

648
模型参数(Parameters)
397.0
最高上下文长度(Context Length)
256K
是否支持中文
支持
推理能力(Reasoning)

模型基本信息

是否支持推理过程

支持

最高上下文输入长度

256K tokens

最长输出结果
暂无数据
模型类型

多模态大模型

发布时间

2026-02-16

模型预文件大小
暂无数据
推理模式
常规模式(Non-Thinking Mode) 思考模式(Thinking Mode) 深度思考(Deeper Thinking Mode)

开源和体验地址

代码开源状态
预训练权重开源
Apache 2.0 - 免费商用授权
GitHub 源码
Hugging Face
在线体验

官方介绍与博客

官方论文
DataLearnerAI博客
暂无介绍博客

API接口信息

接口速度(满分5分)
接口价格

默认单位:$/100万 tokens;若计费单位不同,则以供应商公开的原始标注为准。

标准计费 Standard
模态 输入 输出
文本 0.6 3.6

Qwen3.5-397B-A17B模型在各大评测榜单的评分

综合评估

共 9 项评测
C-Eval 思考模式(无工具)
93
2 / 5
C-Eval default
93
2 / 5
GPQA Diamond 思考模式(无工具)
88.40
17 / 161
GPQA Diamond default
88.40
17 / 161
MMLU Pro 思考模式(无工具)
87.80
7 / 114
MMLU Pro default
87.80
7 / 114
HLE default
48.30
48 / 115
HLE 思考模式(无工具)
28.70
48 / 115
HLE default
28.70
48 / 115

编程与软件工程

共 4 项评测
LiveCodeBench 思考模式(无工具)
83.60
10 / 104
LiveCodeBench default
83.60
10 / 104
SWE-bench Verified 思考模式(工具)
76.40
17 / 92
76.40
17 / 92

多模态理解

共 1 项评测
MMMU 思考模式(无工具)
85
3 / 20

Agent能力评测

共 2 项评测
τ²-Bench 思考模式(工具)
86.70
5 / 36
τ²-Bench default
86.70
5 / 36

指令跟随

共 2 项评测
IF Bench 思考模式(无工具)
76.50
1 / 27
IF Bench default
76.50
1 / 27

AI Agent - 信息收集

共 2 项评测
BrowseComp 思考模式(工具+联网)
78.60
8 / 34
BrowseComp default
69
14 / 34

AI Agent - 工具使用

共 4 项评测
OSWorld-Verified 思考模式(工具)
62.20
4 / 9
Terminal Bench 2.0 思考模式(工具)
52.50
14 / 26
52.50
14 / 26
Tool Decathlon 思考模式(工具)
38.30
1 / 1

数学推理

共 3 项评测
AIME 2026 default
91.30
6 / 7
IMO-AnswerBench 思考模式(无工具)
80.90
6 / 7
IMO-AnswerBench default
80.90
6 / 7

长上下文能力

共 1 项评测
AA-LCR default
68.70
5 / 13

发布机构

Qwen3.5-397B-A17B模型解读

Qwen3.5-397B-A17B模型由阿里巴巴云的Qwen团队开发,于2026年2月16日发布,作为Qwen3.5系列的首个开源权重模型。该模型作为原生视觉-语言基础模型,针对多模态代理应用的进步。

在架构和技术规格方面,它采用混合设计,将通过Gated Delta Networks的线性注意力与稀疏专家混合(MoE)结构集成,导致总参数量为3970亿,每次前向传递激活参数为170亿。上下文窗口扩展至256,000个token,便于处理推理和多模态任务中的扩展序列。预训练涉及大规模视觉-文本token,数据在中文和英文、多语言内容、STEM领域和推理元素方面丰富,并经过严格过滤。

关于核心能力和模态,该模型原生支持文本、图像和视频输入,同时生成文本输出。它在多模态推理方面表现出色,包括视觉理解、空间智能、视频分析、语言理解、代码生成以及代理工作流与工具集成,如网络搜索和代码解释器。

在性能指标上,该模型在MMLU-Pro上获得87.8分,MMLU-Redux上94.9分,SuperGPQA上70.4分,MMMU上85.0分,MMMU-Pro上79.0分,MathVision上88.6分,RealWorldQA上83.9分,VideoMME上87.5分,以及MVBench上77.6分。在比较中,它在知识、推理和编码基准上优于GLM-4.5-355B-A32B和DeepSeek-V3.2-671B-A37B等模型,同时相对于Qwen3-Max在32k和256k上下文中提供8.6x至19.0x更高的解码吞吐量,相对于Qwen3-235B-A22B提供3.5x至7.2x。

对于应用场景,它适用于自治代理系统、视觉推理、编码协助和GUI自动化。已知限制包括在超长视频处理或训练数据未覆盖的高度专业化领域中的潜在约束。

访问通过Apache 2.0许可下的开源权重分发提供,权重可在Hugging Face和GitHub等平台上获得。开发者可以通过阿里巴巴云的Bailian平台以OpenAI格式兼容的API集成它。

关注DataLearnerAI公众号

关注DataLearnerAI微信公众号,接受最新大模型资讯

DataLearnerAI WeChat