欢迎光临散文网 会员登陆 & 注册

有三ai深度学习之模型设计经典网络篇

2023-02-11 00:11 作者:血霁玫瑰与樱花  | 我要投稿

后来人们发现隐藏层叠得越多,网络的性能就越好。例如,在一个图片识别的公共测试集上,2012年AlexNet共8层,错误率为16.4%,2014年VGG共19层,错误率为7.3%,2014年GoogleNet共22层,错误率6.7%,2015年Residual Net有152层,错误率降到了3.57%。因此,现在的网络都是越叠越高,这种叠了很多层的神经网络就称为“深度学习”。

有三ai深度学习之模型设计经典网络篇的评论 (共 条)

分享到微博请遵守国家法律