作为文档图象分析鉴别领域最重要的国际会议之一,国际文档分析与鉴别会议ICDAR 2023(International Conference on Document Analysis and Recognition)近期传来好消息:
科大讯飞研究院与中科大语音及语言信息处理国家工程研究中心(以下简称研究中心)在多行公式鉴别、文档信息定位与提炼、结构化文本信息抽取三项竞赛中获得四个冠军。
MLHME之冠:聚焦“多行书写”,复杂度上再突破
MLHME(多行公式鉴别竞赛)考查输入包含手写数学公式的图象后,算法输出对应LaTex字符串正确率。值得一提的是,相比此前数学公式鉴别赛事,此次竞赛业内首次将“多行书写”设为主要挑战对象,且不同于之前鉴别扫描、在线手写的公式,本次以鉴别拍照的手写多行公式为主。
最终,科大讯飞研究院图文鉴别团队以67.9%的成绩拿下冠军,并在主要评价指标——公式召回率(Expression Recall,即统计鉴别正确的样本数占总测试样本数的比例)上大幅超越其他参赛团队。
公式召回率与榜单中Submit Results相对应
多行公式相比单行结构复杂度更高,同一个字符在公式里多次出现时尺寸大小也会有变化;同时,竞赛使用的数据集来自真实场景,拍照的手写公式图片更是存在质量低下、背景扰乱、文字扰乱、涂抹和批注扰乱等问题。这些因素让竞赛难度陡增。
多行公式结构复杂
图片质量不高、批改扰乱
针对多行公式结构复杂问题,团队使用大卷积核的Conv2former作为编码器结构,扩大了模型的视野,更好地捕捉多行公式的结构特征;创新性提出基于transformer的结构化序列解码器SSD,显式对多行公式内部的层次关系做了精细化建模,极大提升了复杂结构的泛化性,更好地建模了结构化语义。
针对图片质量问题所引起的字符歧义问题,团队创新性提出了语义增强的解码器训练算法,通过语义和视觉的联合训练,让解码器具备内在的领域知识。当字符难以辨认时,模型能够自适应利用领域知识做出推理,给出最合理的鉴别结果。
针对字符尺寸变化大的问题,团队提出了一种自适应字符尺度估计算法和多尺度融合解码策略,极大提升了模型对字符大小变化的鲁棒性。
DocILE之冠:“行里挑一”,文档信息定位与提炼竞赛双赛道登顶榜首
DocILE(文档信息定位与提炼竞赛)评估机器学习方法在半结构化的商业文档中,对关头信息定位、提炼和行项鉴别的性能。
该赛事分为KILE和LIR两个赛道工作,KILE工作需要定位文档中预定义类别的关头信息位置,LIR工作需要在前者基础上,进一步将每个关头信息分组为不同的行项条目(Line Item),比如表格中某一行单个对象(数量、价格)等。讯飞与研究中心最终收获双赛道冠军。
KILE赛道榜单
LIR赛道榜单
左为KILE赛道说明,右为LIR赛道说明
从赛事官方给出的工作图示可以看出,文档中待抽取的信息种类非常繁杂。其中,KILE工作不仅需要提炼预定义类别的关头信息,还要得到关头信息的具体位置;LIR工作中,一个行项在单个表格中可能有多行文本。加上此次赛事数据集中信息种类多、文档版式复杂多样,大大增加了挑战性。
联合团队在算法层面提出了两项手艺创新方案:
预训练阶段设计了基于OCR质量的文档过滤器,从主办方提供的无标注文档中提炼出274万页的文档图象,随后通过预训练语言模型获取文档中各文本行的语义表征,并采用掩码语句表征恢复工作进行不同Top-K(GraphDoc模型中关于文档的注意力范围的一个超参数)配置下的预训练。
在数据集微调阶段,团队使用了预训练后的GraphDoc提炼文本框的多模态表征,并进行分类操作。在分类结果的基础上,将多模态表征送入低层注意力融合模块进行实例的聚合,在实例聚集的基础上,使用高层注意力融合模块实现行项实例的聚集,所提出的注意力融合模块结构相同、但彼此不共享参数,可以同时用于KILE和LIR工作且具有很好的效果。
SVRD之冠:零样本票证结构化信息抽取工作第一,预训练模型大考验
SVRD(结构化文本信息抽取)竞赛分为4个赛道子工作,讯飞与研究中心在难度颇高的零样本结构化信息抽取子赛道(Task3:E2E Zero-shot Structured Text Extraction)获得第一。
榜单排名
在官方指定不同类型发票需要提炼的关头因素背景下,该赛道要求参赛团队利用模型输出这些关头因素在图片中的对应内容,“零样本”则代表训练集和测试集的发票类型并无交集;赛道考查模型端到端预测准确率,取score1、score2加权平均值作为最终评价指标。
零样本对预训练模型能力提出了更高要求。同时,竞赛使用的发票版式多样,乘车站点、发车时间等因素在不同版式中的名称各不相同,发票照片还存在背景扰乱、反光、文字重叠等问题,进一步提升了鉴别和抽取难度。
不同版式的发票
条纹背景扰乱的发票
团队首先对因素抽取模型采用复制-生成双分支解码策略,在前端OCR结果置信度较高的情况下直接复制OCR结果,在OCR结果置信度较低的情况下生成新的预测结果,以此缓解前端OCR模型引入的鉴别错误。
此外,团队还基于OCR结果提炼句子级的graphdoc特征作为因素抽取模型输入,该特征融合了图象、文本、位置、版面多模态特征,相比于单模态的纯文本输入具有更强的特征表示。
在此基础上,团队还结合了UniLM、LiLT、DocPrompt多个因素抽取模型在不同场景、不同语种上的性能优势进一步提升了最终的因素抽取效果。
教育、金融、医疗等已落地应用,助力大模型提升多模态能力
此次选择ICDAR 2023的相关赛事进行挑战,来源于科大讯飞在实际业务中的真实场景需求;赛事相关的手艺也已经深入教育、金融、医疗、司法、智能硬件等领域,赋能多项业务与产品。
在教育领域,手写公式鉴别的手艺能力被高频使用,机器能给予精准的鉴别、判断和批改。例如讯飞AI学习机中的个性化精准学、AI诊断;老师上课所使用的“讯飞智慧窗”教学大屏、学生的个性化学习手册等,都已发挥了很大成效;
不久前科大讯飞全球1024开发者节主论坛上发布的星火科研助手,三大核心功能之一的论文研读可实现智能解读论文,快速回答相关问题。后续在高精度公式鉴别基础上进阶有机化学结构式、图形、图标、流程图、表格等结构化场景鉴别的效果,这项功能也会更好助力科研工作者提升效率;
文档信息定位与抽取手艺则在金融领域得到了广泛运用,例如合同因素抽取与审核、银行票据因素抽取、营销内容消保审查等场景,可以实现文档或文件的数据解析、信息抽取和比对审核等功能,从而辅助业务数据的快速录入、抽取、比对,实现审核过程的降本增效;
同样在此次1024主论坛上发布的个人AI健康助手——讯飞晓医,不仅能扫描检查单、化验单鉴别后给出分析和建议,还可以扫描药盒后进一步主动询问、给出辅助用药建议。对于体检报告,拍照上传后讯飞晓医可以鉴别全维度关头信息,联合异常指标综合解读,主动询问发现更多问题给予帮助。当然,背后也是文档信息定位与抽取手艺的支持。
从单字鉴别、文本行鉴别,到难度更高的二维复杂结构鉴别、篇章级鉴别,科大讯飞的图文鉴别相关手艺在算法上持续迭代突破,更强的图文鉴别手艺还能使多模态大模型在图象描述、图象问答、识图创作、文档理解与处理上展现出更好的效果和潜力;
与此同时,图文鉴别手艺也结合语音鉴别、语音合成、机器翻译等手艺形成系统性创新,赋能产品应用后展现出更强大的功能与更明显的价值优势,相关项目也获得了2022年度吴文俊人工智能科技进步奖一等奖。新一程里,在ICDAR 2023数个竞赛中“多点开花”,既是科大讯飞在图文鉴别理解手艺深度上持续进步的回馈,也是广度上不断铺开的肯定。