Friday, November 3, 2017

深度瞎学习Batch Normalization

Batch Normalization 学习笔记
作者:hjimce

一、背景意义
本篇博文主要讲解2015年深度学习领域,非常值得学习的一篇文献:《Batch Normalization: Accelerating Deep Network Training by  Reducing Internal Covariate Shift》,这个算法目前已经被大量的应用,最新的文献算法很多都会引用这个算法,进行网络训练,可见其强大之处非同一般啊。
近年来深度学习捷报连连、声名鹊起,随机梯度下架成了训练深度网络的主流方法。尽管随机梯度下降法对于训练深度网络简单高效,但是它有个毛病,就是需要我们人为的去选择参数,比如学习率、参数初始化、权重衰减系数、Drop out比例等。这些参数的选择对训练结果至关重要,以至于我们很多时间都浪费在这些的调参上。那么学完这篇文献之后,你可以不需要那么刻意的慢慢调整参数。BN算法(Batch Normalization)其强大之处如下:
(1)你可以选择比较大的初始学习率,让你的训练速度飙涨。以前还需要慢慢调整学习率,甚至在网络训练到一半的时候,还需要想着学习率进一步调小的比例选择多少比较合适,现在我们可以采用初始很大的学习率,然后学习率的衰减速度也很大,因为这个算法收敛很快。当然这个算法即使你选择了较小的学习率,也比以前的收敛速度快,因为它具有快速训练收敛的特性;
(2)你再也不用去理会过拟合中drop out、L2正则项参数的选择问题,采用BN算法后,你可以移除这两项了参数,或者可以选择更小的L2正则约束参数了,因为BN具有提高网络泛化能力的特性;
(3)再也不需要使用使用局部响应归一化层了(局部响应归一化是Alexnet网络用到的方法,搞视觉的估计比较熟悉),因为BN本身就是一个归一化网络层;
(4)可以把训练数据彻底打乱(防止每批训练的时候,某一个样本都经常被挑选到,文献说这个可以提高1%的精度,这句话我也是百思不得其解啊)。
开始讲解算法前,先来思考一个问题:我们知道在神经网络训练开始前,都要对输入数据做一个归一化处理,那么具体为什么需要归一化呢?归一化后有什么好处呢?原因在于神经网络学习过程本质就是为了学习数据分布,一旦训练数据与测试数据的分布不同,那么网络的泛化能力也大大降低;另外一方面,一旦每批训练数据的分布各不相同(batch 梯度下降),那么网络就要在每次迭代都去学习适应不同的分布,这样将会大大降低网络的训练速度,这也正是为什么我们需要对数据都要做一个归一化预处理的原因。
对于深度网络的训练是一个复杂的过程,只要网络的前面几层发生微小的改变,那么后面几层就会被累积放大下去。一旦网络某一层的输入数据的分布发生改变,那么这一层网络就需要去适应学习这个新的数据分布,所以如果训练过程中,训练数据的分布一直在发生变化,那么将会影响网络的训练速度。
我们知道网络一旦train起来,那么参数就要发生更新,除了输入层的数据外(因为输入层数据,我们已经人为的为每个样本归一化),后面网络每一层的输入数据分布是一直在发生变化的,因为在训练的时候,前面层训练参数的更新将导致后面层输入数据分布的变化。以网络第二层为例:网络的第二层输入,是由第一层的参数和input计算得到的,而第一层的参数在整个训练过程中一直在变化,因此必然会引起后面每一层输入数据分布的改变。我们把网络中间层在训练过程中,数据分布的改变称之为:“Internal  Covariate Shift”。Paper所提出的算法,就是要解决在训练过程中,中间层数据分布发生改变的情况,于是就有了Batch  Normalization,这个牛逼算法的诞生。
二、初识BN(Batch  Normalization)
1、BN概述
就像激活函数层、卷积层、全连接层、池化层一样,BN(Batch Normalization)也属于网络的一层。在前面我们提到网络除了输出层外,其它层因为低层网络在训练的时候更新了参数,而引起后面层输入数据分布的变化。这个时候我们可能就会想,如果在每一层输入的时候,再加个预处理操作那该有多好啊,比如网络第三层输入数据X3(X3表示网络第三层的输入数据)把它归一化至:均值0、方差为1,然后再输入第三层计算,这样我们就可以解决前面所提到的“Internal Covariate Shift”的问题了。
而事实上,paper的算法本质原理就是这样:在网络的每一层输入的时候,又插入了一个归一化层,也就是先做一个归一化处理,然后再进入网络的下一层。不过文献归一化层,可不像我们想象的那么简单,它是一个可学习、有参数的网络层。既然说到数据预处理,下面就先来复习一下最强的预处理方法:白化。
2、预处理操作选择
说到神经网络输入数据预处理,最好的算法莫过于白化预处理。然而白化计算量太大了,很不划算,还有就是白化不是处处可微的,所以在深度学习中,其实很少用到白化。经过白化预处理后,数据满足条件:a、特征之间的相关性降低,这个就相当于pca;b、数据均值、标准差归一化,也就是使得每一维特征均值为0,标准差为1如果数据特征维数比较大,要进行PCA,也就是实现白化的第1个要求,是需要计算特征向量,计算量非常大,于是为了简化计算,作者忽略了第1个要求,仅仅使用了下面的公式进行预处理,也就是近似白化预处理:
公式简单粗糙,但是依旧很牛逼。因此后面我们也将用这个公式,对某一个层网络的输入数据做一个归一化处理。需要注意的是,我们训练过程中采用batch 随机梯度下降,上面的E(xk)指的是每一批训练数据神经元xk的平均值;然后分母就是每一批数据神经元xk激活度的一个标准差了。
三、BN算法实现
1、BN算法概述
经过前面简单介绍,这个时候可能我们会想当然的以为:好像很简单的样子,不就是在网络中间层数据做一个归一化处理嘛,这么简单的想法,为什么之前没人用呢?然而其实实现起来并不是那么简单的。其实如果是仅仅使用上面的归一化公式,对网络某一层A的输出数据做归一化,然后送入网络下一层B,这样是会影响到本层网络A所学习到的特征的。打个比方,比如我网络中间某一层学习到特征数据本身就分布在S型激活函数的两侧,你强制把它给我归一化处理、标准差也限制在了1,把数据变换成分布于s函数的中间部分,这样就相当于我这一层网络所学习到的特征分布被你搞坏了,这可怎么办?于是文献使出了一招惊天地泣鬼神的招式:变换重构,引入了可学习参数γ、β,这就是算法关键之处:
 
每一个神经元xk都会有一对这样的参数γ、β。这样其实当:
是可以恢复出原始的某一层所学到的特征的。因此我们引入了这个可学习重构参数γ、β,让我们的网络可以学习恢复出原始网络所要学习的特征分布。最后Batch Normalization网络层的前向传导过程公式就是:
 
上面的公式中m指的是mini-batch size。
2、源码实现
[python] view plain copy
  1. m = K.mean(X, axis=-1, keepdims=True)#计算均值  
  2. std = K.std(X, axis=-1, keepdims=True)#计算标准差  
  3. X_normed = (X - m) / (std + self.epsilon)#归一化  
  4. out = self.gamma * X_normed + self.beta#重构变换  
上面的x是一个二维矩阵,对于源码的实现就几行代码而已,轻轻松松。
3、实战使用
(1)可能学完了上面的算法,你只是知道它的一个训练过程,一个网络一旦训练完了,就没有了min-batch这个概念了。测试阶段我们一般只输入一个测试样本,看看结果而已。因此测试样本,前向传导的时候,上面的均值u、标准差σ 要哪里来?其实网络一旦训练完毕,参数都是固定的,这个时候即使是每批训练样本进入网络,那么BN层计算的均值u、和标准差都是固定不变的。我们可以采用这些数值来作为测试样本所需要的均值、标准差,于是最后测试阶段的u和σ 计算公式如下:
上面简单理解就是:对于均值来说直接计算所有batch u值的平均值;然后对于标准偏差采用每个batch σB的无偏估计。最后测试阶段,BN的使用公式就是:
(2)根据文献说,BN可以应用于一个神经网络的任何神经元上。文献主要是把BN变换,置于网络激活函数层的前面。在没有采用BN的时候,激活函数层是这样的:
z=g(Wu+b)
也就是我们希望一个激活函数,比如s型函数s(x)的自变量x是经过BN处理后的结果。因此前向传导的计算公式就应该是:
z=g(BN(Wu+b))
其实因为偏置参数b经过BN层后其实是没有用的,最后也会被均值归一化,当然BN层后面还有个β参数作为偏置项,所以b这个参数就可以不用了。因此最后把BN层+激活函数层就变成了:
z=g(BN(Wu))
四、Batch Normalization在CNN中的使用
通过上面的学习,我们知道BN层是对于每个神经元做归一化处理,甚至只需要对某一个神经元进行归一化,而不是对一整层网络的神经元进行归一化。既然BN是对单个神经元的运算,那么在CNN中卷积层上要怎么搞?假如某一层卷积层有6个特征图,每个特征图的大小是100*100,这样就相当于这一层网络有6*100*100个神经元,如果采用BN,就会有6*100*100个参数γ、β,这样岂不是太恐怖了。因此卷积层上的BN使用,其实也是使用了类似权值共享的策略,把一整张特征图当做一个神经元进行处理。
卷积神经网络经过卷积后得到的是一系列的特征图,如果min-batch sizes为m,那么网络某一层输入数据可以表示为四维矩阵(m,f,p,q),m为min-batch sizes,f为特征图个数,p、q分别为特征图的宽高。在cnn中我们可以把每个特征图看成是一个特征处理(一个神经元),因此在使用Batch Normalization,mini-batch size 的大小就是:m*p*q,于是对于每个特征图都只有一对可学习参数:γ、β。说白了吧,这就是相当于求取所有样本所对应的一个特征图的所有神经元的平均值、方差,然后对这个特征图神经元做归一化。下面是来自于keras卷积层的BN实现一小段主要源码:
[python] view plain copy
  1. input_shape = self.input_shape  
  2.  reduction_axes = list(range(len(input_shape)))  
  3.  del reduction_axes[self.axis]  
  4.  broadcast_shape = [1] * len(input_shape)  
  5.  broadcast_shape[self.axis] = input_shape[self.axis]  
  6.  if train:  
  7.      m = K.mean(X, axis=reduction_axes)  
  8.      brodcast_m = K.reshape(m, broadcast_shape)  
  9.      std = K.mean(K.square(X - brodcast_m) + self.epsilon, axis=reduction_axes)  
  10.      std = K.sqrt(std)  
  11.      brodcast_std = K.reshape(std, broadcast_shape)  
  12.      mean_update = self.momentum * self.running_mean + (1-self.momentum) * m  
  13.      std_update = self.momentum * self.running_std + (1-self.momentum) * std  
  14.      self.updates = [(self.running_mean, mean_update),  
  15.                      (self.running_std, std_update)]  
  16.      X_normed = (X - brodcast_m) / (brodcast_std + self.epsilon)  
  17.  else:  
  18.      brodcast_m = K.reshape(self.running_mean, broadcast_shape)  
  19.      brodcast_std = K.reshape(self.running_std, broadcast_shape)  
  20.      X_normed = ((X - brodcast_m) /  
  21.                  (brodcast_std + self.epsilon))  
  22.  out = K.reshape(self.gamma, broadcast_shape) * X_normed + K.reshape(self.beta, broadcast_shape)  
个人总结:2015年个人最喜欢深度学习的一篇paper就是Batch Normalization这篇文献,采用这个方法网络的训练速度快到惊人啊,感觉训练速度是以前的十倍以上,再也不用担心自己这破电脑每次运行一下,训练一下都要跑个两三天的时间。另外这篇文献跟空间变换网络《Spatial Transformer Networks》的思想神似啊,都是一个变换网络层。

参考文献:
1、《Batch Normalization: Accelerating Deep Network Training by  Reducing Internal Covariate Shift》
2、Spatial Transformer Networks
=========================
Discuss:

BN本质上解决的是反向传播过程中的梯度问题。
详细点说,反向传播时经过该层的梯度是要乘以该层的参数的,即前向有:
h_l = w_l^Th_{l-1}
那么反向传播时便有:
\frac{\partial l}{\partial h_{l-1}} = \frac{\partial l}{\partial h_l} . \frac{\partial h_l}{\partial h_{l-1}} = \frac{\partial l}{\partial h_l} w_l
那么考虑从l层传到k层的情况,有:
\frac{\partial l}{\partial h_k} = \frac{\partial l}{\partial h_l} \prod _{i=k+1}^{l} w_i
上面这个 \prod_{i=k+1}^l w_i 便是问题所在。因为网络层很深,如果 w_i 大多小于1,那么传到这里的时候梯度会变得很小比如 0.9^{100} ;而如果 w_i 又大多大于1,那么传到这里的时候又会有梯度爆炸问题 比如1.1^{100} 。BN所做的就是解决这个梯度传播的问题,因为BN作用抹去了w的scale影响。
具体有:
h_l=BN(w_lh_{l-1}) = BN(\alpha w_lh_{l-1})
那么反向求导时便有了:
\frac{\partial h_l}{\partial h_{l-1}}=\frac{\partial BN w_lh_{l-1}}{\partial h_{l-1}} =\frac{\partial BN \alpha w_lh_{l-1}}{\partial h_{l-1}}
可以看到此时反向传播乘以的数不再和 w 的尺度相关,也就是说尽管我们在更新过程中改变了 w 的值,但是反向传播的梯度却不受影响。更进一步:
\frac{\partial h_l}{\partial w_l} = \frac{\partial BNw_lh_{l-1}}{\partial w_l} = \frac{1}{\alpha}.\frac{\partial BN \alpha w_l h_{l-1}}{\partial w_l}
即尺度较大的 w 将获得一个较小的梯度,在同等的学习速率下其获得的更新更少,这样使得整体 w 的更新更加稳健起来。
总结起来就是BN解决了反向传播过程中的梯度问题(梯度消失和爆炸),同时使得不同scale的 w 整体更新步调更一致。
更详细的解释可以看我写的一篇BN的文章Batch Normalization详解

信号处理的解释:
relu 是二极管, bn 就是电容器过滤掉直流成份,并控制增益不要超载,多么简单的道理。

=======================
作者:Xf Mao
链接:https://www.zhihu.com/question/38102762/answer/131113368
来源:知乎

关于google那篇Batch Normalization论文的理解


摘要
在深度网络的训练中,每一层网络的输入都会因为前一层网络参数的变化导致其分布发生改变,这就要求我们必须使用一个很小的学习率和对参数很好的初始化,但是这么做会让训练过程变得慢而且复杂。作者把这种现象称作Internal Covariate Shift。通过Batch Normalization可以很好的解决这个问题,并且文中提出的这种Batch Normalization方法前提是用mini-banch来训练神经网络。

介绍
背景依然是基于训练一个深层网络,算法基于最广为使用的SGD和BP,迭代的过程采用mini-batch方法,这些都是最基础的。然后作者提出一个问题,在以往模型的训练当中,通常需要很谨慎的选择模型的超参数,特别是学习率的选择和参数的初始化。因为深层网络中,就单层而言,每一层的输入是前面所有层的输出,这个输出往往是不稳定的,它会随着前面层的参数的迭代更新而产生变化,这导致两个问题:
1、每一层都要学习一个变化的数据分布,但是我们希望输入我们系统的数据,它的分布最好是稳定的。

图中红点代表2维的数据点,由于图像数据的每一维一般都是0-255之间的数字,因此数据点只会落在第一象限,而且图像数据具有很强的相关性,比如第一个灰度值为30,比较黑,那它旁边的一个像素值一般不会超过100,否则给人的感觉就像噪声一样。由于强相关性,数据点仅会落在第一象限的很小的区域中,形成类似上图所示的狭长分布。
而神经网络模型在初始化的时候,权重W是随机采样生成的,一个常见的神经元表示为:ReLU(Wx+b) = max(Wx+b,0),即在Wx+b=0的两侧,对数据采用不同的操作方法。具体到ReLU就是一侧收缩,一侧保持不变。
随机的Wx+b=0表现为上图中的随机虚线,注意到,两条绿色虚线实际上并没有什么意义,在使用梯度下降时,可能需要很多次迭代才会使这些虚线对数据点进行有效的分割,就像紫色虚线那样,这势必会带来求解速率变慢的问题。更何况,我们这只是个二维的演示,数据占据四个象限中的一个,如果是几百、几千、上万维呢?而且数据在第一象限中也只是占了很小的一部分区域而已,可想而知不对数据进行预处理带来了多少运算资源的浪费,而且大量的数据外分割面在迭代时很可能会在刚进入数据中时就遇到了一个局部最优,导致overfit的问题。
这时,如果我们将数据减去其均值,数据点就不再只分布在第一象限,这时一个随机分界面落入数据分布的概率增加了多少呢?2^n倍!如果我们使用去除相关性的算法,例如PCA和ZCA白化,数据不再是一个狭长的分布,随机分界面有效的概率就又大大增加了

2、一旦前层的参数产生变化,经过多层以后会被放大,类似于“蝴蝶效应”(这一点我觉得从梯度弥散上可以看出来,我们想要输出产生微小的变化,但是前层的微小变化会导致输出的巨大变化,于是系统就几乎不更新前层的值了)
用公式来表达就是,相当于网络F1的输出被喂到F2中
然后在F2上用mini-batch的梯度下降
这个问题在公式上看也成立。在机器学习中,最终我们要学习的是数据的分布规律,我们总希望数据分布大致相同(如果训练数据的分布和测试数据的分布不同,那么再好的模型也不能泛化,因为训练数据集本身就是没有代表性的),应用到神经网络也是如此,上式的xi是不断改变的,后面的网络总要调整参数去补偿这种改变,致使整个网络复杂化,也容易过拟合。作者认为,让xi有一个稳定的分布,会有有利于网络的训练,并针对这个问题,提出了Batch Normalization方法。
Batch Normalization方法,总的来说就是对层间的数据做均值和方差的修正,最终它让一些饱和非线性的激活函数可以被使用(如Sigmoid)而这些激活函数的使用正是梯度弥散的罪魁祸首(Hinton在2010提出ReLU解决了梯度问题)


解决Internal Covariate Shift问题
还是采用层间fix数据分布的一种做法。但是这要求我们在训练的时候同时也对Normalization过程中的参数进行优化和更新,原因论文里说了,单个值x的修正是基于训练集上xi的整体来做的

根据论文中的观点,如果忽视均值对模型参数的依赖,那么最终会导致输出不变。这当然是有问题的,事实上每个参数的更新都会对均值产生影响
最终Batch Normalization过程可以用一个函数来表示:小x是当前训练样本,大x是全体训练集,帽x是求得的结果
他依赖于正在训练的样本和所有的训练样本,反向传播的时候也需要考虑
的因素 ,如果没有考虑后者,那么就发发生上述的问题。
关于白化,文中提出它的计算量比较大,所以做了两点简化:
第一点,我们简单的作如下处理使得输入集合服从均值为0,方差为1的分布
上述的k是第k维的数据,最后的结果是经过Batch Normalization变换的值。(均值和方差是在训练集上计算的)
你会发现这个值的绝对值会很小,当它输入sigmoid函数时,会发现整体数据处在sigmoid的非饱和区域:
如图,这个区域接近于线性,这显然不是我们想要的,作者为了解决这一问题,对结果又施加了一个反变换(确保至少可以把数据还原为原数据)这里的两个参数都是需要后续去学习的。
第二点,最初的讨论是基于均值方差在整个训练集上计算,但是随机梯度下降只是对当前情况的优化,所以这是不现实的,因此第二点简化用mini-banch训练的时候,均值和方差来自于banch而不是整个训练集。(这样可以保证BP顺利进行)
那么整一个BN变换算法就完成了
接下来就是BP过程对新引入参数的更新,直接用链式法则推导
mini-banch上如何训练取网络中间层的一个子集,然后对每一个元素做BN变换(使用上述的算法进行),在完成了所有batch的迭代之后,训练完成。但此时的模型还不是最好的,作者又提出在全体训练集上求取均值和方差(无偏估计),去取代模型BN变换层的对应均值和方差,这其实很好理解。训练完成后的均值方差还只是最后一个banch的均值方差,我们最后的模型是基于训练集的,所以最后还需要增加加一步替换操作。
以下是整一个BN算法

No comments:

Post a Comment