Gavin老师Transformer直播课感悟 - 使用BERT进行NER案例实战

一、BERT Fine-tuning命名实体识别(NER)

        命名实体识别(Name Entity Recognition)这项技术无论是在传统经典的机器学习算法中还是在以神经网络为代表的新一代机器学习算法中都是核心技术,它在本质上来说就是信息提取(information extraction), 主要功能就是完成信息的定位和分类,信息可以是结构化和非结构化数据。举例来讲,如果有一个文本,如何从这个文本中提取信息就是NER要完成的任务,通过NER把文本中的实体抽取出来并归类到预定义好的类别。在工业实践中,譬如在医疗,教育等服务行业,如果想从用户评论中收集反馈用于改善服务质量,借助基于NER技术的人工智能处理,可以更高效地完成这项任务,并节省人工阅读的成本。在NLP领域,最重要的两件事情,一是意图识别(intent),另外就是NER, NER类似于定量的分析,NER可以用来推荐用户想要的信息。围绕NER产生了传统的算法和现代的算法,其中传统算法的代表就是条件随机场(CRF, conditional random field), CRF涉及到了状态的管理,新一代的NER技术是以神经网络为核心的,如LSTM, BERT,其中BERT由于基于Transformer的架构,在NLP领域处于主导地位。在大多数的NER应用场景中,都是以BERT作为基石,原因是BERT的双向多头注意力机制可以带来强大的信息表达能力。CRF在信息表达方面存在不足,而信息表达是Transformer架构的核心优势,在BERT中,可以用[CLS]来表示全局的信息尤其是类别的信息,每个token就是一个向量(vector),多个token就构成了一个矩阵,可以把BERT的输出给到CRF或者其它类似的模型,实现现代算法

Guess you like

Origin blog.csdn.net/m0_49380401/article/details/121549509