前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >MMOCR | 全方位食用指南拿来吧你!

MMOCR | 全方位食用指南拿来吧你!

作者头像
OpenMMLab 官方账号
发布2022-01-18 08:35:25
1.4K0
发布2022-01-18 08:35:25
举报
文章被收录于专栏:OpenMMLab

首先鸣谢 @samayala22(加拿大)、@manjrekarom (印度)等社区同学为本文提及的技术点做出的卓越贡献 !期待更多社区伙伴加入算法优化工作中来,同时也希望这两位小伙伴早日学会中文,读懂我们的致谢~

老大在 MMOCR 的发布稿中说道,MMOCR 作为开源的文字检测识别理解工具箱,拥有着全流程、多模型、模块设计、公平对比、快速入门等诸多优点。

之后,还为读者们画下了数个大饼,包括但不限于——

MMOCR 不仅仅是研究导向的框架,还是一个可以用于入门,教学,以及工业实际生产的框架。

或是“我们逐步会加入更多的算法以及多语言模型”云云。正所谓画饼一时爽,头发火葬场。老大动嘴皮,小弟惨兮兮。

好在,道路是曲折的,前途是光明的。努力了两个月后,我们首先把 MMOCR 的版本从 0.2.0 提升到了 0.2.1,修复了版本号过低的 bug。此外,我们捎带作出的一些更新有:

1. 增加了对新手友好的应用脚本,便于入门、教学和测试模型的实际表现;

2. 支持部分模型导出至 ONNX 和 TensorRT;

3. 数据集新增对 TextOCR 和 Total-Text 的支持,完善了一些数据集的处理脚本;

4. 开始提供中文文档(在做了但又没有完全做好== dbq);

5. 对配置方法依照最新版 MMCV 以及 MMDetection 的要求进行了重构,以支持一些新特性。

之前 MMOCR 发布的时候就有很多社区同学在各平台留言评论,说我们没有详细的介绍一下。我们十分重视,迅速行动,在三个月后提出了这篇教程。

在这篇文章里,我们将会重点介绍新增的应用脚本,同时手把手带领读者尝试使用 MMOCR 已有的模型。

MMOCR 全方位食用指南,拿来吧你!!

本文内容

文字检测与识别

关键信息提取

在项目中使用 MMOCR 模块

在正式展开之前,我们先列出 MMOCR 支持的模型供大家参考:

顺便一提, MMOCR 支持的数据集也不少:

对于这些数据集,我们均已提供转换脚本或处理后的标注文件供大家在 MMOCR 中使用。

1. 文字检测与识别

Text Detection & Recognition

尽管模型管够,但不同模型在不同场景下的表现会有所差异。俗语有云,是骡子是马,还得拉出来遛遛。社区同学 @samayala22 热心地为我们提供了一个懒人脚本——mmocr/utils/ocr.py,感恩~

此脚本开箱即用,只需简单的一行命令,万千模型(指14个)立即组合,任君差遣

首先,我们可以试着用它识别一下一张名为magazine.png 的杂志图片:

代码语言:javascript
复制
python mmocr/utils/ocr.py demo/magazine.png --det PS_IC15 --recog RobustScanner --imshow --out_img demo/result.jpg

右划查看完整代码

在这个命令里,我们调用了 PSENet 和 RobustScanner 分别作为文本识别和检测模型,端对端地对图片进行了 OCR 识别。

识别结果会显示在弹出窗口中,并被保存至demo/result.jpg中(见下图)。可以见到,这两个模型组合起来的识别效果还是很不错的。

然而,受宥于我们模型的训练数据,我们输出的结果往往只会以单词为单位。这在文字分布零散的场景中问题不大,可是如果在书刊杂志的识别上,就显得没有那么赏心悦目了。

显然,要想从根本上解决这个问题,还是得从训练数据集下手,对具体场景做好微调。然而,这种方法耗时耗力,且对于普通用户而言成本太高。

于是,在参考了社区成员的意见后,我们提出了一个快捷(且丑陋)的修复方案——一个名为stitch_boxes_into_lines 的函数。它会在脚本输出最终结果前,自动合并邻近的文字框,从而实现按行输出的效果。要想尝试该方案,读者只需在脚本后加上 --merge 参数:

代码语言:javascript
复制
python mmocr/utils/ocr.py demo/magazine.png --det PS_IC15 --recog RobustScanner --imshow --out_img demo/result.jpg --merge

然而,“邻近”的定义在不同的场景下是不一致的。为了适应不同的环境,该函数为调参侠们贴心地提供了两个参数:

代码语言:javascript
复制
def stitch_boxes_into_lines(boxes,
                            max_x_dist=10,
                            min_y_overlap_ratio=0.8,
                            has_text=True):
    """合并相邻的检测框。
        ...
        max_x_dist (int): 当两个检测框在x轴上的最短距离大于该值时,不作合并
        min_y_overlap_ratio (float): 当两个检测框在y轴上的重合长度与自身在y轴上的长度(高)的比都小于该值时,不作合并
        ...
    """

在上面所提出的实例中,max_x_dist 跟 min_y_overlap_ratio 就分别被设置为 40 和 0.5 。

很显然,考虑到调参的麻烦程度,这个辅助函数还有很大的提升空间。同时,它也是一个具有挑战性的工程性问题。我们将会在后续视实际需求随缘优化这个算法;当然,如果读者对此有什么好的想法、建议或实践经验,欢迎在我们的社区交流甚至提出 PR

另外,我们目前也在开始支持中文的文字识别,现在已经公开了一个在 ChineseOCR 上预训练好的 SAR 文字识别模型——

https://mmocr.readthedocs.io/en/latest/textrecog_models.html#show-attend-and-read-a-simple-and-strong-baseline-for-irregular-text-recognition

只不过效果上也比较拉胯有很大的提升空间。作为开发计划的一部分,我们将会逐步提升 MMOCR 在中文上的表现。同样地,如果小伙伴们有任何中文相关的 OCR 的论文,资源甚至 PR,都欢迎在 Github 上与我们随时交流!

2.关键信息提取

Key Information Extraction

假设我们现在有一批包含信息类似但布局不同的文档(如收据),KIE 模型可以帮助我们自动把文档上的关键信息(物品、价格、商店名称等)作出判断及归类,从而实现自动化的信息提取。有了这种模型的帮助,大家就能更方便地统计自己每个月跟女朋友逛街的花费,可以说是相当实用了。

啥?没女朋友怎么办?

KIE 作为文字识别领域一个常见的下游任务,它常常需要结合图像和文字的识别结果作出综合判断,因此十分依赖于上游文字检测和识别模型的输出。得益于 MMOCR 的通用模块化设计,在 mmocr/utils/ocr.py 中, SDMGR 被无缝地接入了模型的工作链,端对端地实现对输入图片的推断。(KIE 的片段部分由印度的 @manjrekarom 小哥提出,感谢!)

接下来,我们同样测试一下 SDMGR 的表现。假设我们有一张收据图片放在 demo/demo_kie.jpeg 下,我们便可以通过以下命令来进行 KIE 推断:

代码语言:javascript
复制
python mmocr/utils/ocr.py demo/demo_kie.jpeg  --det PS_CTW --recog SAR --kie SDMGR --print-result --imshow

该命令采用 PSENet 和 SAR 模型进行文本检测和识别,之后 SDMGR 模型被用来对识别结果进行归类。从图中可见,大部分的字段都被成功归类了出来

3. 在项目中使用 MMOCR 模块

在某些工程实践中,我们可能会希望调用 MMOCR 的模型进行文字识别或信息提取。这里 MMOCR 也提供了一个非常方便的类:MMOCR。用户仅需导入该类,并调用 MMOCR.readtext() ,即可识别任意图片。

我们继续举个例子——比方说,我们要在项目中使用 MMOCR 中的 PSENet 和 SAR 识别 demo/demo_text_ocr.jpg ,可以这样操作:

代码语言:javascript
复制
import mmcv
from mmocr.utils.ocr import MMOCR

img = mmcv.imread('demo/demo_text_ocr.jpg')
ocr = MMOCR(det='PS_CTW', recog='SAR')
results = ocr.readtext(img) # 也可以直接传入文件路径

以下为部分results内的内容,可见识别框和文字都已经被详细地标注了出来,用户可以在接下来的开发中直接调用这些信息:

代码语言:javascript
复制
[{'filename': '0', 'result': [{'box': [166, 14, 164, 16, 164, 20, 161, 23, 161, 30, 164, 32, 164, 39, 170, 39, 173, 41, 198, 41, 200, 43, 211, 43, 214, 45, 216, 43, 216, 30, 214, 27, 214, 18, 207, 18, 204, 16, 186, 16, 184, 14], 'box_score': 0.9082011580467224, 'text': 'SALE', 'text_score': 0.9999995529651642}, ...]}]

实际上,mmocr/utils/ocr.py 的命令行只是 MMOCR 的一层包装。因此,所有在命令行里适用的参数在 MMOCR 里都是通用的,妈妈再也不用担心 MMOCR 功能不足了。

相信通过上面的演示,各位已经掌握了这个脚本一些基本的用法。更多关于该脚本参数的介绍和演示,有需要的读者可以参考我们的文档。

有条件的朋友,还请顺手点个 star 支持一下我们!笔者在此携为数不多的秀发谢过大家!

【 MMOCR Github 地址】

https://github.com/open-mmlab/mmocr

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2021-08-20,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 OpenMMLab 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
文字识别
文字识别(Optical Character Recognition,OCR)基于腾讯优图实验室的深度学习技术,将图片上的文字内容,智能识别成为可编辑的文本。OCR 支持身份证、名片等卡证类和票据类的印刷体识别,也支持运单等手写体识别,支持提供定制化服务,可以有效地代替人工录入信息。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档