欢迎光临散文网 会员登陆 & 注册

小象学院 自然语言处理项目实战

2023-04-18 11:09 作者:al_sa  | 我要投稿

优点:BERT是截至2018年10月的最新state of the art模型,通过预训练和精调横扫了11项NLP任务,这首先就是最大的优点了。而且它还用的是Transformer,也就是相对rnn更加高效、能捕捉更长距离的依赖。对比起之前的预训练模型,它捕捉到的是真正意义上的bidirectional context信息。

缺点:MLM预训练时的mask问题

[MASK]标记在实际预测中不会出现,训练时用过多[MASK]影响模型表现


小象学院 自然语言处理项目实战的评论 (共 条)

分享到微博请遵守国家法律