欢迎光临散文网 会员登陆 & 注册

【五分钟机器学习】卷积神经网络III:发展历史 (音频已修复)

2023-03-29 12:01 作者:冲锋的柯基  | 我要投稿

CNN的问题:深度深--训练慢 反向传播--训练难

视频目录:00:54

alexnet:引用ReLu激活函数代替sigmod,解决了梯度消失和梯度爆炸的问题;局部归一化、dropout解决过拟合


VGG net:提出了使用3x3卷积核代替大卷积核的效果更好,提出16-19层深度比较好


谷歌net:稀疏矩阵叠加、使用1x1卷积核


res net:网络越深,反向传播的困难越大,整体性能反而可能变低。此时res net利用残差传递,Y=X等方法,认为加入恒等映射层不会损失反向传播的精度导致整体性能变差


densenet:特征复用,减少了参数。避免了重复特征


最后有一个性能表格 12:15


【五分钟机器学习】卷积神经网络III:发展历史 (音频已修复)的评论 (共 条)

分享到微博请遵守国家法律