CVPR 2022 | 阿里&华科提出:针对场景文本检测的视觉语言模型预训练

点击下方卡片,关注“CVer”公众号

AI/CV重磅干货,第一时间送达

点击进入—> CV 微信技术交流群

转载自:CSIG文档图像分析与识别专委会

13f05c7fe7f2997ba9bf3ee45e749c86.png

本文简要介绍了发表于CVPR 2022的论文“Vision-Language Pre-Training for Boosting Scene Text Detector”的相关工作。大规模预训练在视觉任务中有着重要的作用,而视觉语言模型与多模态的特征联合近期也收到了广泛的关注。本文针对场景文本检测的问题,提出了利用视觉语言模型对检测器进行预训练,通过设计Image-text Contrastive Learning、Masked Language Modeling和Word-in-image Prediction三个预训练任务有效得结合文本、图像两个模态的特征,帮助主干网络提取到更丰富的视觉与语义特征,以此提高文本检测器的性能。该预训练方法可以有效提升各文本检测器在各大公开场景文本数据集上的评估结果。

一、研究背景

预训练通常被用于自然语言处理以及计算机视觉领域,以增强主干网络的特征提取能力,达到加速训练和提高模型泛化性能的目的。该方法亦可以用于场景文本检测当中,如最早的使用ImageNet预训练模型初始化参数,到使用合成数据直接预训练检测器再在真实数据上Finetune[1][2],再到通过定义一些预训练任务训练网络参数等。但这些方法都存在一些问题,比如[1][2]中合成数据与真实数据的Domain Gap导致模型在真实场景下Finetune效果不佳,[3]中没有充分利用视觉与文本之间的联系。基于这些观察,本文提出了一个通过视觉语言模型进行图像、文本两个模态特征对齐的预训练方法VLPT-STD,用于提升场景文本检测器的性能。

二、方法介绍

本文提出了一个全新的用于场景文本检测预训练的框架—VLPT-STD,它基于视觉语言模型设计,可以有效地利用文本、图像两种模态的特征,使得网络提取到更丰富的特征表达。其算法流程如图1所示,主要分为Image Encoder,Text Encoder以及Cross-model Encoder三个部分,并且设计了三个预训练任务让网络学习到跨模态的表达,提高网络的特征提取能力。

2.1 模型结构

Image Encoder用于提取场景文本图片的视觉特征编码,Text Encoder则提取图片中文本内容的编码,最后视觉特征编码和文本内容编码一起输入Cross-model Encoder当中进行多模态特征融合。

Image Encoder 包含了一个ResNet50-FPN的主干网络结构和一个注意力池化层。场景文本图像首先输入到ResNet50-FPN中得到特征,然后通过注意力池化层得到一个图像特征编码序列fb48e8759a92c12c0a4e19a272e9b0a2.png6d7b71a9e0fc6f4c44fc280d9215c362.png代表[CLS] Token的编码,S代表视觉Token的数量,d是维度。注意力池化层是一层Transformer中的多头注意力模块。

Text Encoder先将输入的文本转化成一个编码序列bc83a7a602b2b7685cf67b2f2a15ae45.png,K代表序列长度,然后通过三层多头注意力模块得到文本特征编码。

Cross-model由四个相同的Transformer Decoder组成,它将视觉编码序列和文本编码序列W结合到了一起,并将其最后的输出用于预测Masked Language Modeling预训练任务。

abe4a1af5e8a1166c7d455dc0b158c08.png

图1 VLPT-STD整体框架

2.2 预训练任务

本文定义了三个预训练任务,包括Image-text Contrastive Learning(ITC)、Word-in-image Prediction(WIP)和Masked Language Modeling(MLM)。

Image-text Contrastive Learning(ITC)的目的是使得文本编码序列的每一项都能在视觉编码序列中找到最相似的编码,也就是让每个单词的文本编码与其对应的文本图片区域视觉特征匹配(例如,“Last”的Text Embedding与图片中“Last”位置的区域特征相似度最高)。

该任务对每个图像编码6bf527926c9fe6d226bf624ce4bec597.png和文本编码089ba4fbfb9ebac68bab668e9838c60c.png分别运用InfoNCE loss[4]去计算相似度。ad34b91eb9f2a7e2f053cc81dacabd24.png99a1600a9f51965e89a76c60234bb779.png代表一个Batch内所有的图像编码和文本编码,它们分别为Image Encoder得到的3cdf659ba1cce0efa5ad616173ed981b.png和Text Encoder得到的5005ad06dbfd817b5866948297d0c3cd.png

24c2e0ef7bea2acfc7190f5ffe8174c2.png

N代表Batch Size。ITC任务最终的损失函数为:

db2032a9a71d52c389d9d47a3b46fb05.png

Word-in-Image Prediction(WIP)是通过在图像编码和文本单词编码中应用对比学习去区分出现在图片中的文本(正类)与不存在德文本(负类),从而预测给定的一组单词是否出现在输入图片中。如图1左上角所示,训练时图片中有的单词作为正样本,其编码为83963d1dc5ace8a939738d33511e5e75.png;负样本则是训练过程中基于文本编码的相似度进行采样得到(如对于正样本“Lost”,负样本可为“Lose”,“Last”等),文中选取的是Top-L(L=63)相似的文本,对于每一个正样本的编码7aba38d1ceb507139fc62db8e622ed31.png,其负样本编码为84c90314f1a91064082b9b6e06d6e0b3.png。输入图片为I,WIP的损失函数定义如下:

d11dca55b8e7c2e6a69d5cf765085681.png

Masked Language Modeling (MLM)类似于BERT,该任务首先随机掩盖文本编码w,然后让网络利用所有的视觉特征编码v和未被掩盖的文本编码c01b71211fb755be5aa4a8161a85fd35.png预测缺失的单词文本f5e88ac9070e552f3d0a90702d1d2a94.png。如图1所示,图片中的文本“And”,“Was”等被掩盖,MLM任务是将它们预测恢复。其损失函数如下所示:

d91d0cdaad97825a9fd7f0bce2e6afd2.png

最终的损失函数为:

5a8fb3d9084242d29180bda1ddc36e07.png

三、实验

3.1 实验细节

本文提出的VLPT-STD在SynthText [5]上进行预训练,然后将预训练得到的主干网络用于EAST [6],PSENet [7]和DB [2]这三个文本检测器在各个公开的真实场景数据集上进行Finetune。实验使用了八块v100,Batch Size为800。

3.2 与State-of-the-art的方法比较

表格1到表格3展示了文章提出的预训练方法与之前预训练方法对于三个不同的文本检测器性能提升的对比。

e6e3f273b2436bacade9fb820961f9c3.png

00145eaeb010ac43d6879d3339d9c55f.png

62ddae2f8c6f5d48110563fdd056ce6b.png

3.2 消融实验

首先是对模型设计的消融实验,如表格4所示。文章探究了Image Encoder中作者改进的FPN结构和Cross-model Encoder中Cross-attention的作用。

9fed3e4615d5ecdc4e337ccc372a7f56.png

其次是对预训练任务的消融实验,如表格5所示。

165c9aac6d0f97692bd1fc9dfbe89f0f.png

最后是对预训练的数据集进行了探究,作者对比了SynthText和TextOCR [8]两种数据集,结果如表6所示。

13bf67601745193c5424b63e0ccded33.png

3.3 可视化结果

文章首先展示了Cross-model当中Attention Map的可视化结果。可以看到一个文本是与Attention Map中高亮区域是一一匹配的。

21e768ddae56ca83ce1d438450ec2f78.png

然后文章展示了和之前预训练方法STKM [3] 对比的检测结果。

739f85cdf956bcc8f32e0fe9f3231753.png

四、总结与讨论

在场景文本检测当中,本文是第一篇用视觉语言模型以及多模态特征融合的思路去设计预训练任务以提升文本检测性能的工作,它设计了三个简单有效的任务,提高了主干网络对文本图像特征的表征能力。如何利用文本和图像两种模态的特征也是未来OCR领域的一个重要方向。

参考文献

[1] Minghang He, et al. MOST: A multi-oriented scene text detector with localization refinement. In CVPR, 2021.

[2] Minghui Liao, et al. Real-time scene text detection with differentiable binarization. In AAAI, 2020.

[3] Qi Wan, Haoqin Ji, and Linlin Shen. Self-attention based text knowledge mining for text detection. In CVPR, 2021.

[4] Aaron van den Oord, Yazhe Li, and Oriol Vinyals. Representation learning with contrastive predictive coding. arXiv preprint arXiv:1807.03748, 2018.

[5] A. Gupta, A. Vedaldi and A. Zisserman, "Synthetic Data for Text Localisation in Natural Images,"2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Las Vegas, NV, 2016, pp. 2315-2324.

[6] Xinyu Zhou, et al. EAST: an efficient and accurate scene text detector. In CVPR, 2017.

[7] Xiang Li, et al. Shape robust text detection with progressive scale expansion network. In CVPR 2019.

[8] Jun Tang, et al. Seglink++: Detecting dense and arbitrary-shaped scene text by instance-aware component grouping. In Pattern recognition, 2019.


原文作者:Sibo Song, Jianqiang Wan, Zhibo Yang, Jun Tang, Wenqing Cheng, Xiang Bai, Cong Yao 

撰稿:刘崇宇  编排:高 学

审校:殷 飞  发布:金连文

点击进入—> CV 微信技术交流群

 
  

CVPR 2022论文和代码下载

后台回复:CVPR2022,即可下载CVPR 2022论文和代码开源的论文合集

后台回复:Transformer综述,即可下载最新的3篇Transformer综述PDF

OCR 交流群成立
扫描下方二维码,或者添加微信:CVer6666,即可添加CVer小助手微信,便可申请加入CVer-OCR 微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer等。
一定要备注:研究方向+地点+学校/公司+昵称(如OCR+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群

▲扫码或加微信: CVer6666,进交流群
CVer学术交流群(知识星球)来了!想要了解最新最快最好的CV/DL/ML论文速递、优质开源项目、学习教程和实战训练等资料,欢迎扫描下方二维码,加入CVer学术交流群,已汇集数千人!

▲扫码进群
▲点击上方卡片,关注CVer公众号
整理不易,请点赞和在看

猜你喜欢

转载自blog.csdn.net/amusi1994/article/details/126220212