当前位置: 首页 > news >正文

51c视觉~OCR~合集2

我自己的原文哦~https://blog.51cto.com/whaosoft143/14456574

一、xxx

....

二、xxx

....

三、LightOnOCR

OCR迎来“闪电时刻”:LightOnOCR-2以1B模型击败9B竞品,开源即达SOTA!

最近,LightOn在文档理解领域推出了名为LightOnOCR-2-1B的全新模型。这个模型仅用10亿的参数量,就在权威的 OCR 评测基准OlmOCR-Bench上取得了当前最佳成绩(SOTA),把一众参数量大它9倍的巨无霸模型甩在了身后。

对开发者来说,好消息是,LightOnOCR-2 已经全面开源,相关的模型、代码、数据集都已上线 Hugging Face,这无疑又为社区贡献了一个强大又高效的生产力工具。

  • 论文标题: LightOnOCR: A 1B End-to-End Multilingual Vision-Language Model for State-of-the-Art OCR
  • 论文地址: https://arxiv.org/abs/2601.14251
  • 项目主页: https://huggingface.co/blog/lightonai/lightonocr-2
  • 代码仓库: https://huggingface.co/collections/lightonai/lightonocr-2
  • 机构: LightOn

告别脆弱的“积木塔”:为什么我们需要端到端OCR?

聊到 LightOnOCR-2 之前,我们得先看看传统OCR技术遇到了什么瓶颈。

长久以来,文档处理就像搭建一个复杂的“积木塔”。我们需要先用一个工具做版面分析,判断哪里是标题、哪里是段落、哪里是表格;再用另一个工具去检测文字的具体位置;然后才是文字识别;最后可能还需要一个模块来恢复正确的阅读顺序。这个过程被称为“多阶段OCR流程”(multi-stage OCR pipelines)。

这种方法的缺点显而易见:

  1. 脆弱:任何一个环节出错,都会影响最终结果。
  2. 昂贵:维护和升级这样一套复杂的系统成本高昂。
  3. 僵化:想让它适应一种新的文档风格(比如一种新的发票版式),往往需要对多个模块进行调整和重新训练,费时费力。

而以 LightOnOCR-2 为代表的端到端(End-to-End)模型,像一个聪明的“全能专家”,直接从原始的文档图片(输入),一步到位地生成结构清晰、顺序正确的文本内容(输出),中间过程全部由模型自己搞定。这种“大力出奇迹”的方式不仅简化了工程,也让模型的优化和迭代变得简单。

1B如何胜过9B?LightOnOCR-2的核心秘籍

LightOnOCR-2 模型可以用“小而美”来形容。

强强联合的模型架构

LightOnOCR-2 的根基是一个经典的“编码器-解码器”架构,但它的组件包括:

  • 视觉编码器 (Vision Encoder):采用了 ​​Mistral-Small-3.1​​ 的预训练权重。这是一个原生支持高分辨率的ViT,能很好地捕捉文档中微小的排版细节,对各种奇形怪状的文档比例都有很好的适应性。
  • 语言解码器 (Language Model Decoder):初始化自 ​​Qwen3​​ 模型。它负责将视觉信息翻译成通顺且结构化的文本。
  • 多模态投影器 (Multimodal Projector):一个简单的双层MLP,作为桥梁,高效地将视觉特征传递给语言解码器。

这种组合拳,相当于站在了巨人的肩膀上,让模型从一开始就具备了强大的视觉理解和语言生成能力。

不止于OCR:新增图像边界框检测

这是 LightOnOCR-2 的一大亮点。除了转录文字,它还能在生成的文本中,用类似 Markdown 的语法 ​​![image](image_N.png)​​ 标记出文档里图片的位置,并给出其精确的边界框坐标(bounding boxes)

上图就是一个很好的例子,左边是原始文档页,右边是模型生成的转录文本渲染后的效果,它不仅识别了所有文字,还准确地“框”出了图片的位置,并将其裁剪了出来。

为了实现这个功能,研究者们在预训练中引入了坐标监督,并利用基于IoU奖励的强化学习(RLVR)对定位能力进行了精细打磨,让模型学会了“指哪打哪”。

“模型合并之道”:任务算术合并

同时做好OCR和图像定位,有时会顾此失彼。为了解决这个问题,研究者用上了一种名为“任务算术合并”(Task-Arithmetic Merging)的技术。

简单来说,他们分别训练了一个专注于OCR的“专家模型”和一个专注于Bbox检测的“专家模型”,然后通过一个简单的线性公式,将两个模型的权重进行“插值融合”。

如上图所示,通过调整混合比例 α,开发者可以自由地在OCR精度和Bbox检测精度之间找到最佳平衡点,甚至创造出一个“双优”的融合模型,整个过程无需额外训练,成本极低。

惊人的性能与效率

LightOnOCR-2 的实验结果相当能打。

OlmOCR-Bench基准上,LightOnOCR-2-1B 的最终得分达到了83.2,超过了此前最强的9B参数模型 Chandra(81.7分),成为了新的榜单冠军。

效率方面在单张NVIDIA H100 GPU上,LightOnOCR-2 的推理速度5.71页/秒,是8B参数的 olmOCR-2 的近1.7倍,是9B参数的 Chandra 的3.3倍以上。

论文展示了无论是处理包含复杂公式的科学论文、版式刁钻的多栏文档,还是陈旧发黄的扫描件,LightOnOCR-2 都表现出了卓越的性能和鲁棒性。

对科学文献的精准识别

轻松应对复杂表格

在老旧扫描件上依然稳健

写在最后

LightOnOCR 出自一家法国公司 LightOn,目前该模型对中日韩等非拉丁语系文字和手写体的支持还有待提高。但其设计思想值得参考。

....

http://www.jsqmd.com/news/290700/

相关文章:

  • 26年寒假生活指导1.23
  • 综合长文档效率战|万字毕业论文,用“快降重”统一风格、抢救AI率
  • 视频推理帧率优化实战
  • 基于微信小程序的儿童预防接种预约系统【源码+文档+调试】
  • 基于微信小程序的家政预约服务平台【源码+文档+调试】
  • Remotion Agent Skills:AI 写代码生成视频的时代来了
  • Docker 入门前置:容器虚拟化基础之 cgroups 资源控制与 LXC 容器
  • 基于SpringBoot的大学生创新创业项目管理系统毕设
  • 基于SpringBoot的学生信息管理系统毕业设计源码
  • No.10质量控制
  • No.11 进度控制
  • 2026年网络安全就业指南:人才缺口超 200 万,这些方向最吃香
  • AI应用架构师与社会网络AI分析平台的持续进化
  • [langgraph langchain 关于多agent编排]
  • 8个降AIGC工具推荐!研究生高效降AI率指南
  • 2026年AI测试工具包:软件测试从业者的高效利器
  • 2026年AI测试市场增长预测报告
  • 爆款故事:AI如何帮小团队打败大公司‌
  • ‌AI公平性验证:测试数据集构建指南‌
  • AS7173+VL171规格书/ 8K60 C转dp双向互转 Type-C转dP线
  • 第52章:Shell 管理系统内核参数:sysctl 配置 + 参数优化脚本
  • Windows CMD(命令提示符)常用指令大全
  • 工业控制嵌入式开发:Modbus 协议在 STM32 中的实现与调试
  • 人群仿真软件:SimWalk_(2).安装与配置
  • CGO性能深度剖析:成因、评估与优化全指南
  • 信号处理仿真:滤波器设计与仿真_6.滤波器设计软件与工具
  • 吐血推荐!自考必看TOP10一键生成论文工具深度测评
  • 【渗透测试】HTB靶场之Baby 全过程wp
  • 提示工程架构师指南:AI提示设计中用户行为预测的工具推荐
  • 提示工程架构师必备:物流规划中的上下文蒸馏技术