欢迎光临散文网 会员登陆 & 注册

小象AI技术分享系列课程

2023-04-18 11:10 作者:魚斯基  | 我要投稿

bert模型

BERT的全称是Bidirectional Encoder Representation from Transformers,即双向Transformer的Encoder,因为decoder是不能获要预测的信息的。模型的主要创新点都在pre-train方法上,即用了Masked LM和Next Sentence Prediction两种方法分别捕捉词语和句子级别的representation。


小象AI技术分享系列课程的评论 (共 条)

分享到微博请遵守国家法律