【卷积神经网络】卷积层,池化层,全连接层的理解

网友投稿 1169 2022-11-16

【卷积神经网络】卷积层,池化层,全连接层的理解

【卷积神经网络】卷积层,池化层,全连接层的理解

CNN网络一共有5个层级结构: 参考:​

输入层 卷积层 激活层 池化层 全连接FC层

1 输入层 与传统神经网络/机器学习一样,模型需要输入的进行预处理操作,常见的输入层中预处理方式有:

去均值 归一化 PCA/SVD降维等

2 卷积层

局部感知:人的大脑识别图片的过程中,并不是一下子整张图同时识别,而是对于图片中的每一个特征首先局部感知,然后更高层次对局部进行综合操作,从而得到全局信息。 (后面详解)

获取图片特征

3 激励层

所谓激励,实际上是对卷积层的输出结果做一次非线性映射。

如果不用激励函数(其实就相当于激励函数是f(x)=x),这种情况下,每一层的输出都是上一层输入的线性函数。容易得出,无论有多少神经网络层,输出都是输入的线性组合,与没有隐层的效果是一样的,这就是最原始的感知机了。

激励层建议:首先ReLU,因为迭代速度快,但是有可能效果不加。如果ReLU失效的情况下,考虑使用Leaky ReLU或者Maxout,此时一般情况都可以解决

4 池化层

池化(Pooling):也称为欠采样或下采样。主要用于特征降维,压缩数据参数的数量,减小过拟合,同时提高模型的容错性。主要有:

Max Pooling:最大池化 Average Pooling:平均池化

版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:海明吗码字的求法
下一篇:Spring Boot腾讯云短信申请与使用示例
相关文章

 发表评论

暂时没有评论,来抢沙发吧~