GL

GLM-OCR

视觉大模型

GLM-OCR

发布时间: 2026-02-03

26
模型参数(Parameters)
9.0
最高上下文长度(Context Length)
8K
是否支持中文
支持
推理能力(Reasoning)

模型基本信息

是否支持推理过程

不支持

最高上下文输入长度

8K tokens

最长输出结果

4096 tokens

模型类型

视觉大模型

发布时间

2026-02-03

模型预文件大小

1.8GB

推理模式
常规模式(Non-Thinking Mode)

开源和体验地址

代码开源状态
预训练权重开源
Apache 2.0 - 免费商用授权
GitHub 源码
Hugging Face
在线体验
暂无在线体验地址

官方介绍与博客

官方论文
DataLearnerAI博客
暂无介绍博客

API接口信息

接口速度(满分5分)
接口价格

默认单位:$/100万 tokens;若计费单位不同,则以供应商公开的原始标注为准。

标准计费 Standard
模态 输入 输出
文本 -- 0.03 美元/100 万tokens
图片 0.03 美元/100 万tokens --

GLM-OCR模型在各大评测榜单的评分

当前尚无可展示的评测数据。

发布机构

GLM-OCR模型解读

1. GLM-OCR 模型简介与核心特点

GLM-OCR 是由智谱 AI 于 2026 年 2 月推出的新一代开源 OCR(光学字符识别)模型。作为 GLM 系列在视觉理解领域的最新成果,该模型专为解决复杂文档解析难题而设计,旨在以极低的参数规模实现工业级的识别精度。GLM-OCR 虽为 0.9B 参数的轻量级模型,但在多项权威基准测试中展现了超越更大规模模型的性能,支持在 vLLM、SGLang 和 Ollama 等主流推理框架中高效部署,特别适合边缘计算和高并发业务场景。

2. 架构与技术规格

  • 模型参数:约 9 亿(0.9B),属于轻量化端侧友好型模型。
  • 技术架构:采用编码器-解码器(Encoder-Decoder)架构。视觉端集成了智谱自研的 CogViT 视觉编码器,结合“版面分析→并行识别”的两阶段技术流程,有效提升了对复杂版面的解析能力。
  • 上下文与吞吐:模型经过深度优化,在处理 PDF 文档时吞吐量可达 1.86 页/秒,兼顾了高精度与高效率。

3. 核心能力与支持模态

  • 模态支持:输入为图像(支持扫描件、截图、PDF页等),输出为结构化文本或 Markdown/LaTeX 格式文本。
  • 核心能力
    通用文本识别:支持多语言混排的高精度识别。
    复杂公式解析:能够将手写或印刷的数学公式精确转换为 LaTeX 代码。
    表格还原:支持解析包含合并单元格、多级表头的复杂表格,并直接输出 HTML 或 Markdown 格式。
    信息抽取 (KIE):能够智能识别票据、卡证及文档中的关键字段并输出 JSON 格式。

4. 性能与基准评测

在权威文档解析评测基准 OmniDocBench V1.5 中,GLM-OCR 取得了 94.6 分的成绩,位列 SOTA(当前最优),在文本、公式、表格及信息抽取四个子任务上的表现均优于多款同类专项模型。

5. 应用场景与限制

  • 推荐用例:学术论文转 LaTeX、财务报表数字化、历史文档扫描件电子化、边缘设备上的实时拍照翻译与解析。
  • 部署优势:由于参数量极小,该模型非常适合在消费级显卡或移动端设备上进行本地化部署,大幅降低了隐私泄露风险和推理成本。

6. 访问方式与许可

GLM-OCR 的权重及推理代码已在 GitHub 和 Hugging Face 平台开源。智谱官方开放平台亦提供 API 调用服务。

关注DataLearnerAI公众号

关注DataLearnerAI微信公众号,接受最新大模型资讯

DataLearnerAI WeChat