NLP经典论文推荐:信息抽取之命名实体识别
如果你问我为什么先更新CV论文,再更新NLP论文,绝对不是因为我偏心,是因为NLP方向的同学蛮少的,学姐最近的阅读量都下降了,呜呜呜,大家给我点点👍吧!

深度学习应用NER的经典模型
《Bidirectional LSTM-CRF Models for Sequence Tagging》
简介
在这篇论文中,我们提出了一系列用于序列标注的长短期记忆 (LSTM)模型。这些模型包括了LSTM网络,双向LSTM (BI-LSTM)网络,带有条件随机场(CRF)的LSTM(LSTM-CRF),以及带有CRF层的双向LSTM (BI-LSTM-CRF)。我们的工作首次在NLP基准序列标记数据集中使用双向LSTM CRF(记为BI-LSTM-CRF)。我们证明,因为双向LSTM组件,BILSTM-CRF模型可以有效影响过去和未来的输入特征。而由于CRF层,模型同时能使用句子层标记信息。 BI-LSTMCRF模型在POS(词性标注),chunking(语义组块标注)和 NER(命名实体识别)数据集上都达到了目前最优的精确度。另外,对比以前的方法,该模型是健壮的,并且减少了对词向量的依赖性。
论文链接
https://arxiv.org/pdf/1508.01991
视频讲解:
https://www.bilibili.com/video/BV1K54y117yD?spm_id_from=333.999.0.0
融合字词向量的中文NER论文标题
《Chinese NER Using Lattice LSTM》
摘要
本文研究了lattice-structured LSTM模型用来做中文的NER,在character-based的序列标注的模型上改进得到的,在character-based模型中的每个character cell vector通过词向量输入门的控制引入以当前字符结束的在词表中出现的所有词的word cell vector得到新的character cell vector,用新的character cell vector得到每个字符的hidden vector来进行最终的标签的预测。
与基于字符的方法相比,本文的方法显式的使用了词和词序列信息,与基于词的方法相比lattice LSTM不存在分割错误的问题,Gated recurrent cells使模型能够从句子中选取最相关的字符和词,从而得到更好的NER效果。
论文链接
https://arxiv.org/pdf/1805.02023.pdf
代码链接
https://github.com/jiesutd/LatticeLSTM
Rethinking机制的CNN网络解决中文NER问题论文标题
《CNN-Based Chinese NER with Lexicon Rethinking》
简介
本文模型提出的动机是,尽管现有的融合了lexicon信息的RNN模型在中文NER任务中取得了一定的成功,但这类模型存在两处缺点:
效率限制: 基于RNN的模型由于循环结构的限制无法进行并行操作,尤其是Lattice-LSTM;
Lexicon冲突问题: 当句子中的某个字符可能与lexicon中的多个word有关时,基于RNN的模型难以对此做出判断。例如,图一中的"长"可能属于"市长"一词,也可能属于"长隆"一词,而对"长"所属lexicon word判断的不同,将导致对字符"长"预测的标签不同。
论文链接
https://www.ijcai.org/Proceedings/2019/0692.pdf
代码链接
https://github.com/guitaowufeng/LR-CNN
图神经网络解决中文NER任务
《A Lexicon-Based Graph Neural Network for Chinese NER》
论文简介
基于字符的中文NER中,同一个字符可能属于多个lexicon word,存在 overlapping ambiguity 的现象, 这会对最终标注结果造成误导。例如图1中, “河流” 也可属于 “流经” 两个词中,都含有同一个"流"字。Ma等人于2014年提出,想解决overlapping across strings的问题,需要引入整个句子中的上下文以及来自高层的信息;然而,现有的基于RNN的序列模型,不能让字符收到序列方向上 remain characters 的信息;
论文链接
https://www.aclweb.org/anthology/D19-1096.pdf
代码
https://github.com/RowitZou/LGN
这篇论文的源地址貌似出了问题,需要的话公众号后台找学姐要。
改进Transformer应用在NER任务
《TENER- Adapting Transformer Encoder for Named Entity Recognition》
简介
BiLSTMs结构在NLP的任务中广泛应用,最近,全连接模型Transformer大火,它的 self-attention 机制和强大的并行计算能力使其在众多模型中脱颖而出,但是,原始版本的 Transformer 在命名体识别(NER)中表现却不像在其他领域中那么好,本文将介绍一种叫 TENER 的模型,是在 Transformer 的基础上为 NER 任务改进的,既可以应用在 word-level,也可以应用在 character-level。
通过使用位置感知的编码方式和被削减的attention,我们让 Transformer 在 NER 中达到了在其他任务中那样好的效果。
论文链接
https://arxiv.org/abs/1911.04474
代码
https://github.com/fastnlp/TENER
自适应Embedding融合词典信息解决中文NER任务期刊日期
《Simplify the Usage of Lexicon in Chinese NER》
简介
最近,许多工作试图使用单词词典来增强中文命名实体识别(NER)的性能。作为代表,Lattice-LSTM (Zhang and Yang, 2018) 在几个公开的中文 NER 数据集上取得了新的基准测试结果。但是,Lattice-LSTM 具有复杂的模型架构。这限制了它在许多需要实时 NER 响应的工业领域的应用。在这项工作中,我们提出了一种简单但有效的方法,将单词词典整合到字符表示中。这种方法避免了设计复杂的序列建模架构,对于任何神经 NER 模型,只需要对字符表示层进行细微的调整即可引入词典信息。对四个基准中文 NER 数据集的实验研究表明,我们的方法的推理速度比最先进的方法快 6.15 倍,并且具有更好的性能。实验结果还表明,所提出的方法可以很容易地与 BERT 等预训练模型结合使用。
论文链接
https://arxiv.org/pdf/1908.05969.pdf
代码链接
https://github.com/v-mipeng/LexiconAugmentedNER
免责声明:所载内容来源互联网,仅供参考。转载稿件版权归原作者和机构所有,如有侵权,请联系我们删除。

觉得有用就点赞吧!
每天18:30分更新
关注学姐+星标+在看
不迷路看好文

如有错漏欢迎指出,别上来就喷哈~