Qw

Qwen3-Coder-Next

编程大模型

Qwen3-Coder-Next

发布时间: 2026-02-03

27
模型参数(Parameters)
80.0
最高上下文长度(Context Length)
256K
是否支持中文
支持
推理能力(Reasoning)

模型基本信息

是否支持推理过程

不支持

最高上下文输入长度

256K tokens

最长输出结果

65536 tokens

模型类型

编程大模型

发布时间

2026-02-03

模型预文件大小

48GB

推理模式
常规模式(Non-Thinking Mode)

开源和体验地址

代码开源状态
预训练权重开源
Qwen License - 免费商用授权
GitHub 源码
Hugging Face
在线体验
暂无在线体验地址

官方介绍与博客

官方论文
DataLearnerAI博客
暂无介绍博客

API接口信息

接口速度(满分5分)
接口价格
暂无公开的 API 定价信息。

Qwen3-Coder-Next模型在各大评测榜单的评分

编程与软件工程

共 2 项评测
SWE-bench Verified normal + 使用工具
70.60
28 / 80
SWE-Bench Pro - Public normal + 使用工具
44.30
2 / 10

Agent能力评测

共 1 项评测
Aider-Polyglot normal + 使用工具
66.20
14 / 26

AI Agent - 工具使用

共 1 项评测
Terminal Bench 2.0 normal + 使用工具
36.20
11 / 12

发布机构

Qwen3-Coder-Next模型解读

1. Qwen3-Coder-Next 简介与核心特点

基本信息:Qwen3-Coder-Next 是由 Qwen 团队(阿里云)于 2026 年 2 月 3 日正式发布的最新一代代码语言模型。该模型属于 Qwen3 系列,定位为专为代码智能体(Coding Agents)和本地开发环境设计的轻量级、高性能模型。

核心目标:Qwen3-Coder-Next 旨在通过创新的架构设计,在保持极低推理成本和显存占用的同时,提供足以媲美大参数量模型的代码生成、工具调用和长程推理能力,特别优化了在 Agentic workflows(智能体工作流)中的表现。

2. 架构与技术规格

  • 模型参数:总参数量 80B(800亿)。
  • 激活参数量:约 3B(30亿)。采用稀疏混合专家(Sparse MoE)架构,结合了混合注意力机制(Hybrid Attention)。
  • 架构特点:
    • 混合注意力(Hybrid Attention):结合了 Gated DeltaNet 和 Gated Attention,以平衡推理速度与长上下文记忆能力。
    • MoE 设计:包含 512 个专家(Experts),每 token 激活 10 个专家 + 1 个共享专家。这种 A3B(Active 3B)设计使其在推理时仅需极少的计算资源。
  • 上下文窗口:原生支持 256K tokens,适合处理大型代码库、复杂的调试日志以及长周期的智能体交互任务。
  • 训练数据:在基础模型 Qwen3-Next-80B-A3B 的基础上,针对海量可执行任务(Executable Tasks)、环境交互数据以及强化学习(RL)进行了大规模的 Post-training 优化。

3. 核心能力与支持模态

  • 模态支持:纯文本模型(Text-in, Text-out),专注于代码与自然语言的交互。
  • 能力详述:
    • 代码生成与补全:具备强大的 Fill-in-the-Middle (FIM) 能力,支持多种编程语言的精确生成。
    • 智能体能力(Agentic Capabilities):擅长规划、工具调用(Tool Use)以及从运行时错误中自我修正。官方报告指出其在多轮交互和长程推理任务中表现优异。
    • IDE 集成:由于其高效的推理速度(本地部署友好),特别适合集成到 VS Code、Cursor 等 IDE 插件中作为实时 Copilot 使用。

4. 性能与基准评测

根据官方及社区的早期评测,Qwen3-Coder-Next 在 SWE-Bench Pro 等基准测试中展现了令人印象深刻的性能,其表现可与拥有 10-20 倍激活参数量的密集型模型(Dense Models)相媲美。在本地部署场景下(如使用 4-bit 量化),它能在消费级显卡(如 24GB-48GB 显存范围)上实现高吞吐量推理。

5. 应用场景与限制

  • 推荐用例:本地代码助手、自动化代码重构代理、复杂的 CI/CD 故障排查智能体、以及需要低延迟响应的实时编程辅助。
  • 已知局限:作为一个专注于“快”和“Agent”的模型,它不支持“深度思考(Thinking Mode)”输出,不产生思维链(CoT)块,更倾向于直接执行和结果输出。

6. 访问方式与许可

访问方式:模型权重已在 Hugging Face 和 ModelScope 开源,开发者可通过 GitHub 获取推理代码,并支持通过 vLLM、SGLang 或 Unsloth 等框架进行部署。

许可协议:遵循 Qwen License(以官方仓库最新声明为准),通常允许在一定条件下的商用。

关注DataLearnerAI公众号

关注DataLearnerAI微信公众号,接受最新大模型资讯

DataLearnerAI WeChat