GP

GPT-5.2-Codex

编程大模型

GPT-5.2-Codex

发布时间: 2025-12-18

11
模型参数(Parameters)
未披露
最高上下文长度(Context Length)
是否支持中文
不支持
推理能力(Reasoning)

模型基本信息

是否支持推理过程

支持

最高上下文输入长度
暂无数据
最长输出结果
暂无数据
模型类型

编程大模型

发布时间

2025-12-18

模型预文件大小
暂无数据
推理模式
常规模式(Non-Thinking Mode)

开源和体验地址

代码开源状态
不开源
预训练权重开源
不开源 - 不开源
GitHub 源码
暂无GitHub开源地址
Hugging Face
暂无开源HuggingFace地址
在线体验
暂无在线体验地址

官方介绍与博客

官方论文
DataLearnerAI博客
暂无介绍博客

API接口信息

接口速度(满分5分)
接口价格
暂无公开的 API 定价信息。

GPT-5.2-Codex模型在各大评测榜单的评分

当前尚无可展示的评测数据。

发布机构

GPT-5.2-Codex模型解读

模型简介与定位

GPT-5.2-Codex 由 OpenAI 于 2025-12-18 发布,是 GPT-5.2 的一个变体,进一步面向 Codex 场景做了“agentic coding(代理式编码)”优化,重点覆盖真实软件工程任务与防御性网络安全工作流。官方说明该模型已在 Codex 的各类入口面向付费 ChatGPT 用户提供,并计划在未来几周内逐步为 API 用户开启访问。

架构与技术规格(公开信息范围内)

官方披露其为 GPT-5.2 的专用优化版本,但未在发布页中公开参数量、激活参数量等细节;本文档仅记录可公开核验的信息。

核心能力与支持模态

官方强调其在长时程任务上的能力增强(例如通过“context compaction(上下文压缩/规整)”提升长任务持续性与可靠性),并提升了大规模代码改动场景(重构、迁移等)的表现。此外,官方指出其视觉相关能力更强,可更准确理解截图、技术图示、图表与 UI 等输入,从而支撑基于界面与图稿的工程协作。

性能与基准评测(仅记录官方表述)

OpenAI 在发布页中表示 GPT-5.2-Codex 在 SWE-Bench Pro 与 Terminal-Bench 2.0 上达到“state-of-the-art”表现,用于衡量在真实代码库与终端环境中的代理式任务完成能力;发布页未给出可直接入库的具体分数数值。

应用场景与限制

官方将其定位于复杂真实软件工程(大仓库、长会话、持续迭代、计划变更与失败重试等)以及防御性网络安全任务。官方同时指出,随着网络安全能力提升带来双重用途风险,其部署将结合 Preparedness Framework 的评估与系统卡中列出的额外防护措施;发布页明确该模型尚未达到 Preparedness Framework 下的“High”级别网络安全能力。

访问方式与许可

访问方式方面,官方说明该模型已在 Codex 的相关产品形态中向付费 ChatGPT 用户提供,并将逐步向 API 用户开放。许可方面,发布信息未显示其为开源模型,按 OpenAI 现有产品形态可视为闭源商业模型。

关注DataLearnerAI公众号

关注DataLearnerAI微信公众号,接受最新大模型资讯

DataLearnerAI WeChat