阅读 107

Alexnet网络结构、特点(12年比赛夺冠的辣个)

8层(5个conv 3个fc)
绿的norm层后来证明没啥用
现在看它的conv1用的卷积核11 stride4就挺离谱的


特点:
①用的relu激活函数,成功解决了Sigmoid在网络较深时的梯度弥散问题。(虽然别人提过 略略略)
**在ReLU之后会做一个normalization(没啥用 阿一古)
②最后几个全连接层使用了Dropout随机忽略一部分神经元,以避免模型过拟合。(虽然别人提过 略略略)
③全部用maxpooling (别人大部分用avgpooling 糊掉了 他们糊掉了没想到全部用maxpooling吗?)

和vgg简单比较
alex要8h vgg要3天
vgg更深 更细致,准确率高15百分点

原文:https://www.cnblogs.com/icemiaomiao3/p/15041694.html

文章分类
代码人生
版权声明:本站是系统测试站点,无实际运营。本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 XXXXXXo@163.com 举报,一经查实,本站将立刻删除。
相关推荐