欢迎光临散文网 会员登陆 & 注册

13 丢弃法【动手学深度学习v2】

2021-12-07 11:05 作者:如果我是泡橘子  | 我要投稿

丢弃法


动机


  • 不管加入多少噪音,图片中的内容始终都是能够看清除的
  • 正则项的作用就是使得权重不要过大,避免过拟合
  • 在数据中加入噪音等价于一个正则
  • 丢弃法是在层之间加入噪音,丢弃法其实是一个正则





无偏差的加入噪音



  • 假设x是上一层到下一层的输出
  • 对x加入噪音,但是不要改变它的期望
  • 丢弃法:对于x’,给定一个概率p,在p的概率中将真是的原始的输入变成0,在其它的地方除以一个(1-p),即将该输入变大。在一部份地方以一定的概率p变成0,在另外一部分地方以一定的概率变大,所以它的期望是不变的





使用丢弃法



  • h是第一个隐藏层的输出
  • dropout表示对h使用丢弃法





推理中的丢弃法


  • 在预测的过程中因为不训练,所以不使用dropout
  • 正则项只在训练中使用,它只会对权重产生影响,在预测的时候,权重不需要发生变化的情况下,不需要正则,所以在推理中不需要正则,确保在推理过程中能够有一个确定性的输出





总结


  • 常用在多层感知机的隐藏层输出上,就是对应的全连接层的额隐藏层输出上,很少会用在CNN这类的模型上面





----to be continued----

13 丢弃法【动手学深度学习v2】的评论 (共 条)

分享到微博请遵守国家法律