欢迎光临散文网 会员登陆 & 注册

贪心Transformer与联邦学习高阶研修班

2023-03-16 13:35 作者:沙没之鹰  | 我要投稿

什么是Transformer

Transformer是一个面向sequence to sequence任务的模型,在17年的论文《Attention is all you need》中首次提出。Transformer 是第一个完全依赖自注意力(self-attention)来计算输入和输出的表示,而不使用序列对齐的递归神经网络或卷积神经网络的转换模型。

sequence to sequence

Seq2Seq模型是输出的长度不确定时采用的模型,这种情况一般是在机器翻译的任务中出现,将一句中文翻译成英文,那么这句英文的长度有可能会比中文短,也有可能会比中文长,所以输出的长度就不确定了。

Transformer的结构


贪心Transformer与联邦学习高阶研修班的评论 (共 条)

分享到微博请遵守国家法律