从零开始,一步一步学习caffe的使用,期间贯穿深度学习和调参的相关知识!LRN 参数配置
1 |
|
LRN说明
示意图

公式

意义
LRN操作主要目的是在深度上进行平滑操作,使得数据在深度层面上有一定的联系。
应用
LRN层是在AlexNet网络中提出来的,但是因为其计算的复杂度和后期的效果并不理想,在后面的网络中基本上抛弃的LRN的归一化方法。
Batch Norm 参数配置
1 |
|
1 |
|
Batch Norm 说明
公式

意义
在深度神经网络的训练过程中,先前层参数的调整会导致之后每一层输入值的分布发生变化,这种现象会使得模型的训练变得复杂。因为分布均匀且统一的数据往往更加容易使得算法训练出高准确率的模型。Batch Norm主要借鉴的是白化的思想,目的是将数据尽量维持在方差为1,均值为0的分布上。因为数据的总量十分庞大,我们无法计算出整个数据集的均值与方差,因此采用Batch的思想,分块的进行白化处理,Batch Norm的精华体现在最后一个公式上,白化之后进行拉伸与平移,也就是对数据分布进行修正。并且拉伸与平移的系数是通过训练得到的,这样,我们将batch在整个数据集的整体分布状态也学习了出来,防止以偏概全!下图可以清晰的看出,加入Batch Norm使得每一层的数据更够有效且均匀的传递到下一层中去。
应用
Batch Norm在ResNet网络和Inception-v2、Inception-v3、Inception-v4中均有用到。

参考
批标准化 (Batch Normalization)
https://morvanzhou.github.io/tutorials/machine-learning/ML-intro/3-08-batch-normalization/
