欢迎光临散文网 会员登陆 & 注册

20分钟掌握RNN与LSTM原理及其结构应用(Seq2Seq & Attenti

2023-01-05 21:43 作者:_-JIA-_-  | 我要投稿

RNN与全连接神经网络的区别

全连接神经网络的最简单的结构

RNN最简单的结构


RNN 比全连接神经网络多了个参数h0

因此RNN的神经元公式会比全连接神经网络的神经元多一项(f为激励函数)


训练过程与全连接神经网络并无区别

梯度下降原则




RNN循环神经网络的优势

模仿人类阅读的顺序去读取文本或者别的序列化数据,且通过隐藏层神经元的编码,上一个隐藏层神经元的信息可以传递到下一个隐藏层神经元,因此形成一定的记忆能力,能够更好地理解序列化数据


其他RNN循环神经网络





输入输出不等长地多输入多输出地RNN结构(Seq2Seq模型)


自编码器,输入等于输出的神经网络模型


RNN和自编码器的原理构造一个翻译机器人,同样的,这个自编码器(翻译机器人)的输入也等于输出,只不过输入与输出用不同的语言去表达罢了。





解码器decoder的输入都是译码器encoder的同一个输出,也就是说无论输入的语句是什么,编码器encoder都会将它转换成同一个中间语义h

因为一句话是有重点的,所以注意力机制应运而生


注意力机制下的seq2seq模型输入变了

输入不是直接的序列输入,而是经过编码器encoder转换的中间语义c,而这些输入C也是各自不同的,每一个C都是又权重w和译码器的隐藏层输出h加权组成


加入C1的重点在‘中’这个字,







20分钟掌握RNN与LSTM原理及其结构应用(Seq2Seq & Attenti的评论 (共 条)

分享到微博请遵守国家法律