无人驾驶汽车系统入门(十二)——卷积神经网络入门,基于深度学习的车辆实时检测

无人驾驶汽车系统入门(十二)——卷积神经网络入门,基于深度学习的车辆实时检测

上篇文章我们讲到能否尽可能利用上图像的二维特征来设计神经网络,以此来进一步提高识别的精度。在这篇博客中,我们学习一类专门用来处理具有网格结构的数据的神经网络——卷积网络(Convolutional Network)。此外,我们使用keras来实现一种深层卷积网络——YOLO,使用YOLO对车辆进行实时检测。

创作不易,转载请注明出处:http://blog.csdn.net/adamshan/article/details/79193775

什么是卷积,卷积的动机

卷积运算

卷积是一种特殊的线性运算,是对两个实值函数的一种数学运算,卷积运算通常用符号 ∗ * 来表示,我们以Kalman滤波中的例子为例,来讨论一个一维离散形式的卷积:

假设我们的可回收飞船正在着陆,其传感器不断测量自身的高度信息,我们用 h ( i ) h(i) h(i) 来表示 i i i 时刻的高度测量,这个测量是以一定的频率发生的(即每隔一个时间间隔测量一次,所以测量 h ( i ) 是 离 散 的 h(i) 是离散的 h(i)),受限于传感器,我们知道测量是不准确的,所以我们采用一种加权平均的方法来简单处理,具体来说,我们可以认为:越接近于时刻 i i i 的测量,越符合时刻 i i i 时的真实高度,即我们给测量 s ( i ) = w i h ( i ) + w i − 1 h ( i − 1 ) + w i − 2 h ( i − 2 ) . . . s(i) = w_ih(i) + w_{i-1}h(i-1) + w_{i-2}h(i-2)... s(i)=wih(i)+wi1h(i1)+wi2h(i2)... 其中的权重 w i > w i − 1 > w i − 2 . . . w_i > w_{i-1} >w_{i-2} ... wi>wi1>wi2... 。这就是一个一维离散形式的卷积,由于这个例子中我们不可能得到“未来的测量”,所以只包含了一维离散卷积的一半,下面是一维离散卷积的完整公式:

s ( i ) = ( h ∗ w ) ( i ) = ∑ j = − ∞ ∞ h ( j ) w ( i − j ) s(i) = (h*w)(i) = \sum_{j=-\infty}^{\infty}h(j)w(i-j) s(i)=(hw)(i)=j=h(j)w(ij)

其中 i i i 表示我们计算的状态(时刻,位置), j j j 表示到状态 i i i 的距离(可以是时间差,空间距离等等),这里的 h h h w w w 就分别表示两个实值函数。在卷积神经网络的术语中,第一个函数 h h h 被称为输入,第二个函数 w w w 被称为 核函数(kernal function) , 输出 s s s 被称为 特征映射(feature map),很显然,在实际的例子中, j j j (即我们考量的区间)一般不会是负无穷大到正无穷大,它通常是个很小的范围。在深度学习的应用中,输入通常是高维度的数组(比如说图像),而核函数也是由算法(如随机梯度下降)产生的高维参数数组。如果输入二维图像 I I I ,那么相应的我们也需要使用二维的核 K K K,则这个二维卷积可以写为:

S ( m . n ) = ( I ∗ K ) ( m , n ) = ∑ i ∑ j I ( i , j ) K ( m − i , n − j ) S(m. n) = (I * K)(m, n) = \sum_i\sum_jI(i, j)K(m-i, n-j) S(m.n)=(IK)(m,n)=ijI(i,j)K(mi,nj)

其中, ( m , n ) (m, n) (m,n) 是计算的像素位置, ( i , j ) (i, j) (i,j) 是考量的范围。我们用更加直观的形式来表示的话,二维卷积如下所示:

这里写图片描述

卷积的动机

那么在回答了什么是卷积以后,我们看看为什么使用卷积这种线性运算。首先我们看看卷积神经网络的定义:

卷积神经网络是指在网络中至少使用了一层卷积运算来代替一般的矩阵乘法运算的神经网络。

我们知道,全连接层中的输入边实际上是乘权重再累加,即本质上是一个矩阵乘法,那么卷积层实际上就是用卷积这种运算替代了原来全连接层中的矩阵乘法,卷积的出发点是通过下述三种思想来改进机器学习系统:

  • 稀疏交互(sparse interactions)
  • 参数共享(parameter sharing)
  • 等变表示(equivariant representations)

稀疏交互

对于普通的全连接网络,层与层之间的节点是全连接的:

这里写图片描述

但是对卷积网络而言,下一层的节点只与其卷积核作用到的节点相关:

这里写图片描述

(图片出处: Goodfellow et al. Deep learning. 2016.)

使用稀疏连接的一个直观的好处就是网络的参数更少了,我们以一副 200 × 200 200 \times 200 200×200 的灰度图为例,当将它输入到全连接的神经网络中时,如下:

这里写图片描述

假设这个网络的的第一个隐含层有4万个神经元(对于输入样本为40000维的情况来说,40000个隐含层节点是合适的),那么这个网络光这一层就有接近20亿个参数。这样的模型训练的计算量是非常大的,且需要很大的存储空间。

对于卷积网络而言,情况如下:

这里写图片描述

这里我们仍然使用40000个隐含层神经元,我们的卷积核(也被称为滤波(Filter))的大小为 10 × 10 10 \times 10 10×10 ,这样的一层卷积的参数量只有约4000000个,参数数量远远小于全连接的网络。

读者可能会有疑问?卷积的输出只与输入的局部产生关联,如果某种规律并不是建立在局部特征之上,而是和整个输入都有关联,那么通过卷积建立起来的表示是不是就不完整呢?并非如此。现代的卷积网络往往需要叠加多个卷积层,卷积网络虽然在直接连接上是稀疏的,但是在更深的层中的单元可以间接的连接到全部的或者大部分的输入图像,如下图所示:

这里写图片描述

提示:在卷积网络的相关文献中,存在术语:神经元(neuron),核(kernal),滤波(filter),它们都指同一个事物——核函数,在本文中,我们统一称为卷积核。

参数共享

使用卷积核实际上就是卷积网络的参数,卷积核在输入图像上滑动窗口,这也就意味着输入的图像的像素点共享这一套参数,如下图所示:

这里写图片描述

卷积网络中的参数共享使我们只需要学习一个参数集合,而不需要对每一个像素都学习一个单独的参数集合,它使得模型所需的存储空间大幅度降低。

等变表示

由于整个输入图片共享一组参数,那么模型对于图像中的某些特征平移具有 等变性 。那么,何谓等变呢?

如果函数 f ( x ) f(x) f(x) 和函数 g ( x ) g(x) g(x) 满足:

f ( g ( x ) ) = g ( f ( x ) ) f(g(x)) = g(f(x)) f(g(x))=g(f(x))

那么我们称函数 f f f 对变换 g g g 具有等变性。同理,平移就是函数 g g g ,那么如果我们平移输入的对象,那么输出中建立的表示也会平移相同的量,这一性质在检测输入中的某些共有结构(比如说边缘)是非常有用的,尤其在卷积神经网络的前几层(靠近输入的层)。

卷积神经网路

下图是一个典型的卷积神经网络层(我们简称卷积层),传统的卷积层包含如下三个结构:

  • 卷积运算
  • 激活函数(非线性变换)
  • 池化(Pooling)

这里写图片描述

这里的激活函数起着与全连接网络一样的作用, R e L U ReLU ReLU 是最常用的激活函数,下面我们来详细讨论一下池化。

池化

池化通常也被称为池化函数,池化函数的定义就是:一种使用相邻位置的总体统计特征来替换该位置的值,池化的理念有点向时序问题中的滑动窗口平均。下图表示一种池化方法——最大池化(maxpooling):

这里写图片描述

上图表示一个2×2的最大池化,其步幅(Stride)为2,我们可以理解为,使用一个 2 × 2 2 \times 2 2×2 的窗口,以2为步长在输入图像上滑动窗口,计算窗口之内输入元素的最大值并输出。我们不难发现,经过这样一个池化函数以后,输入的尺寸被“压缩”了,同时,池化并没有引入额外的参数,即池化能够降低输入的尺寸,也就意味着我们在后面的卷积层中需要的参数更少,因此,在使用池化以后,整个神经网络的参数数量会进一步降低。下面是池化的输入输出的尺寸计算公式:

假设输入的尺寸为: w × h × d w \times h \times d w×h×d,步幅为 s s s ,窗口的大小为 f × f f \times f f×f ,则输出的宽,高和深度分别为:

w o u t = ( w − f ) s + 1 w_{out} = \frac{(w-f)}{s} + 1 wout=s(wf)+1

h o u t = ( h − f ) s + 1 h_{out} = \frac{(h-f)}{s} + 1 hout=s(hf)+1

d o u t = d d_{out} = d dout=d

常用的池化函数主要有最大池化(Max Pooling)和平均池化(Average Pooling),分别是输出相邻的矩阵区域的最大值和平均值,不论是哪种池化,都对于输入的图像中的目标的少量平移具有不变性,即输入中的目标对象发生少量的平移,池化函数的输出不会发生改变。当我们对于卷积的输出进行池化时,由于卷积学习的是分离的特征(比如底层的卷积学习到的是各种边缘特征),特征可能存在一些变换(平移,旋转等等),添加池化函数,能够进一步学习到应该对哪些变换具有不变性。

卷积的一些细节

我们前面大致了解了什么是卷积,在卷积神经网络中,卷积计算还有一些细节问题要考虑。

填充和输入输出尺寸

首先,就是输入输出的尺寸换算。和前面的池化一样,我们假设输入的尺寸为 w × h × d w \times h \times d w×h×d,卷积的步幅为 s s s ,卷积核的大小为 f × f × d f \times f \times d f×f×d ,卷积网络中往往还有一个处理方法,叫做填充(padding),如果我们不想让我们的卷积核越过图像的边界去滑动的话,我们称之为 有效填充(valid padding) ,令 p p p 为填充的像素数,则使用有效填充来处理边界时 p = 0 p = 0 p=0 ,然而,在卷积网络的前几层中,我们要保存尽可能多的原始输入信息,以便我们可以提取这些低阶特征。我们想要应用同样的卷积层,但我们想将输出量保持与输入相同的宽高,为了做到这一点,我们使用一定数量的0填充在边界的周围,使得卷积的输出和输入有着相同的宽高,我们称之为 相同填充(same padding)。输出的宽,高和深度的计算为:

w o u t = ( w − f + 2 p ) s + 1 w_{out} = \frac{(w-f + 2p)}{s} + 1 wout=s(wf+2p)+1

h o u t = ( w − f + 2 p ) s + 1 h_{out} = \frac{(w-f + 2p)}{s} + 1 hout=s(wf+2p)+1

d o u t = k d_{out} = k dout=k

其中, k k k 表示卷积核的个数。

卷积核的深度

通常来说,我们回使用多个卷积核,如下图所示:

这里写图片描述

不同的核学习不同的特征,有些核可能学习的是一些颜色特征,有些核可能学习的是一些边缘,形状特征,下图是同一层中已经训练好的卷积神经网络的核可视化效果(Krizhevsky et al.)

这里写图片描述

卷积核的数量我们成为卷积核的深度。

LeNet

下图是LeNet是LeCun等人在1998年提出的用于解决手写字识别的卷积网络,其整体结构如下:

这里写图片描述

我们从LeNet出发来了解卷积网络的设计模式。如图,卷积网络通常使用金字塔形结构,即随着层数的增加,输出的深度不断增加,同时,我们使用诸如池化,valid padding和大步幅来缩小输出的宽高尺寸。同时,卷积核的尺寸选择已有一定的技巧,通常来说,我们往往在靠近输入的卷积层中使用较大的卷积核以缩小输出的尺寸(如 7 × 7 7 \times 7 7×7 ),而在后面的卷积层中使用小卷积核以充分建立特征表示(如 3 × 3 3 \times 3 3×3 )。

卷积网络的末端和前馈神经网络类似,我们将最后一个卷积层的输出展成向量,输入到一个多层感知机中,对于分类问题,仍然是使用交叉熵作为损失函数,使用随机梯度下降等算法训练整个神经网络的参数。

卷积神经网络的可视化例子:http://scs.ryerson.ca/~aharley/vis/conv/

基于YOLO的实时车辆检测

YOLO(you only look once) 是一种目标检测模型。在深度学习出现之前,传统的目标检测方法的步骤主要是:

  • 提取目标的特征(Hist,HOG,SIFT等)
  • 训练对应的分类器(训练一个能判断一张图像是否为目标的分类器,由于是二分类任务,所以通常使用SVM)
  • 滑动窗口搜索
  • 重复和误报过滤

其主要问题有两方面:一方面滑窗选择策略没有针对性、时间复杂度高,窗口冗余;另一方面手工设计的特征鲁棒性较差,分类器不可靠。

自深度学习出现之后,目标检测取得了巨大的突破,最瞩目的两个方向有:1 以RCNN为代表的基于Region Proposal的深度学习目标检测算法(RCNN,SPP-NET,Fast-RCNN,Faster-RCNN等);2 以YOLO为代表的基于回归方法的深度学习目标检测算法(YOLO,SSD等)。我们介绍基于回归方法的深度学习目标检测方法——YOLO,并且使用YOLO的tiny版本实现一个实时的车辆检测DEMO。

YOLO

YOLO将目标检测看作是一个回归问题,训练好的网络的工作流程非常简单,如下图所示:

这里写图片描述

如图,作为End-To-End网络,输入原始图像,输出即为目标的位置和其所属类别及相应的置信概率。不同于传统的滑动窗口检测算法,在训练和应用阶段,YOLO都使用的是整张图片作为输入。YOLO的具体网络结构如下:

这里写图片描述

整个网络包含了24个卷积层以及2个全连接层,以下是YOLO的整个流程:

预训练分类网络

  • 首先使用上图中的前20个卷积层+一个平均池化层+一个全连接层在ImageNet数据集上训练一个分类网络,这个网络的输入为 224 × 224 224 \times 224 224×224,该模型在ImageNet2012的数据集上的top 5精度为 88 % 88\% 88%

训练检测网络

接着就是将训练的分类网络用于检测,在预训练好的20个卷积层的后面再添加4个卷积层和2个全链接层(即结构图中的后4个卷积层和最后两个全连接层),在这里,网络的输入变成了 448 × 448 448\times 448 448×448 , 输出是一个 7 × 7 × 32 7\times 7\times 32 7×7×32 的张量。

输入到检测网络的图片首先会被resize成 448 × 448 448\times 448 448×448 ,然后被被分割成 7 × 7 7\times 7 7×7 的网格。

这里写图片描述

网络的输出 7 × 7 × 30 7\times 7\times 30 7×7×30 负责这7*7个网格的回归预测。我们来看看这每个网格的30个输出构成:

每个网格都要预测2个bounding box,bounding box即我们用来圈出目标的矩形(也就是目标所在的一个矩形区域),一个bounding box包含如下信息:

  • 中心坐标 ( x , y ) (x, y) (x,y) ,即我们要预测的目标的所在的矩形区域的中心的坐标值。
  • bounding box的宽和高 ( w , h ) (w, h) (w,h)
  • 置信度(confidence):代表了所预测的box中含有object的置信度和这个box预测的有多准两重信息

每个网格都要预测两个bounding box,即10个输出,此外,还有20个输出代表目标的类别,YOLO论文在训练时一共检测20类物体,所以一共有20个类别的输出,我们记做 C C C ,合集每个网格的预测输出有30个数值。

损失函数

要很好地回归出这30个数值,损失函数的设计就必须在bounding box坐标,宽高,置信,类别之间达到一个很好的平衡。YOLO使用如下函数作为检测网络的损失函数:

这里写图片描述

测试

在测试阶段,每个网格预测的类别信息和bounding box预测的confidence相乘,就得到每个bounding box的class-specific confidence score。那么对整个图像的每个网格都做这种操作,则可以得到 7 × 7 × 2 = 98 7 \times 7 \times 2 = 98 7×7×2=98 个bounding box,这些bounding box既包含坐标等信息也包含类别信息。

得到每个bbox的class-specific confidence score以后,设置阈值,滤掉得分低的boxes,对保留的boxes进行NMS处理,就得到最终的检测结果。

NMS(Non-maximum suppression):非最大抑制,它首先基于物体检测分数产生检测框,分数最高的检测框M被选中,其他与被选中检测框有明显重叠的检测框被抑制。在本例中,使用YOLO网络预测出一系列带分数的预选框,当选中最大分数的检测框M,它被从集合B中移出并放入最终检测结果集合D。于此同时,集合B中任何与检测框M的重叠部分大于重叠阈值Nt的检测框也将随之移除。

基于YOLO的车辆检测代码

由于车辆检测对实时性要求高,我们使用一种YOLO的简化版本:Fast YOLO,该模型使用简单的9层卷积替代了原来的24层卷积,它牺牲了一定的精度,处理速度更快,从YOLO的45fps提升到155fps。满足实时目标检测的需求。

使用Keras实现fast YOLO网络结构:

model = Sequential()
model.add(Convolution2D(16, 3, 3,input_shape=(3,448,448),border_mode='same',subsample=(1,1)))
model.add(LeakyReLU(alpha=0.1))
model.add(MaxPooling2D(pool_size=(2, 2)))
model.add(Convolution2D(32,3,3 ,border_mode='same'))
model.add(LeakyReLU(alpha=0.1))
model.add(MaxPooling2D(pool_size=(2, 2),border_mode='valid'))
model.add(Convolution2D(64,3,3 ,border_mode='same'))
model.add(LeakyReLU(alpha=0.1))
model.add(MaxPooling2D(pool_size=(2, 2),border_mode='valid'))
model.add(Convolution2D(128,3,3 ,border_mode='same'))
model.add(LeakyReLU(alpha=0.1))
model.add(MaxPooling2D(pool_size=(2, 2),border_mode='valid'))
model.add(Convolution2D(256,3,3 ,border_mode='same'))
model.add(LeakyReLU(alpha=0.1))
model.add(MaxPooling2D(pool_size=(2, 2),border_mode='valid'))
model.add(Convolution2D(512,3,3 ,border_mode='same'))
model.add(LeakyReLU(alpha=0.1))
model.add(MaxPooling2D(pool_size=(2, 2),border_mode='valid'))
model.add(Convolution2D(1024,3,3 ,border_mode='same'))
model.add(LeakyReLU(alpha=0.1))
model.add(Convolution2D(1024,3,3 ,border_mode='same'))
model.add(LeakyReLU(alpha=0.1))
model.add(Convolution2D(1024,3,3 ,border_mode='same'))
model.add(LeakyReLU(alpha=0.1))
model.add(Flatten())
model.add(Dense(256))
model.add(Dense(4096))
model.add(LeakyReLU(alpha=0.1))
model.add(Dense(1470))

训练YOLO网络是一个漫长的过程,这里我们直接使用已经训练好的模型,将模型参数加载到keras模型中,参数下载地址:https://drive.google.com/file/d/0B1tW_VtY7onibmdQWE1zVERxcjQ/view?usp=sharing
该下载链接需要科学上网,文末有训练好的fast YOLO的百度网盘下载链接。

加载参数文件到我们的网络中:

def load_weights(model, yolo_weight_file):
    tiny_data = np.fromfile(yolo_weight_file, np.float32)[4:]

    index = 0
    for layer in model.layers:
        weights = layer.get_weights()
        if len(weights) > 0:
            filter_shape, bias_shape = [w.shape for w in weights]
            if len(filter_shape) > 2:  # For convolutional layers
                filter_shape_i = filter_shape[::-1]
                bias_weight = tiny_data[index:index + np.prod(bias_shape)].reshape(bias_shape)
                index += np.prod(bias_shape)
                filter_weight = tiny_data[index:index + np.prod(filter_shape_i)].reshape(filter_shape_i)
                filter_weight = np.transpose(filter_weight, (2, 3, 1, 0))
                index += np.prod(filter_shape)
                layer.set_weights([filter_weight, bias_weight])
            else:  # For regular hidden layers
                bias_weight = tiny_data[index:index + np.prod(bias_shape)].reshape(bias_shape)
                index += np.prod(bias_shape)
                filter_weight = tiny_data[index:index + np.prod(filter_shape)].reshape(filter_shape)
                index += np.prod(filter_shape)
                layer.set_weights([filter_weight, bias_weight])

从YOLO网络的输出中提取出车辆的检测结果:

def yolo_net_out_to_car_boxes(net_out, threshold=0.2, sqrt=1.8, C=20, B=2, S=7):
    class_num = 6
    boxes = []
    SS = S * S  # number of grid cells
    prob_size = SS * C  # class probabilities
    conf_size = SS * B  # confidences for each grid cell

    probs = net_out[0: prob_size]
    confs = net_out[prob_size: (prob_size + conf_size)]
    cords = net_out[(prob_size + conf_size):]
    probs = probs.reshape([SS, C])
    confs = confs.reshape([SS, B])
    cords = cords.reshape([SS, B, 4])

    for grid in range(SS):
        for b in range(B):
            bx = Box()
            bx.c = confs[grid, b]
            bx.x = (cords[grid, b, 0] + grid % S) / S
            bx.y = (cords[grid, b, 1] + grid // S) / S
            bx.w = cords[grid, b, 2] ** sqrt
            bx.h = cords[grid, b, 3] ** sqrt
            p = probs[grid, :] * bx.c

            if p[class_num] >= threshold:
                bx.prob = p[class_num]
                boxes.append(bx)

    # combine boxes that are overlap
    boxes.sort(key=lambda b: b.prob, reverse=True)
    for i in range(len(boxes)):
        boxi = boxes[i]
        if boxi.prob == 0: continue
        for j in range(i + 1, len(boxes)):
            boxj = boxes[j]
            if box_iou(boxi, boxj) >= .4:
                boxes[j].prob = 0.
    boxes = [b for b in boxes if b.prob > 0.]

    return boxes

在测试图片上的检测结果:

这里写图片描述

在测试视频上的效果:

这里写图片描述

YOLO 论文: https://pjreddie.com/media/files/papers/yolo.pdf

训练好的Fast YOLO百度网盘下载链接:https://pan.baidu.com/s/1o9twnPo

完整代码下载链接:http://download.csdn.net/download/adamshan/10229339

AdamShan CSDN认证博客专家 图像处理 深度学习 TensorFlow
奔驰高级自动驾驶扫地僧,谷歌认证机器学习专家,兰州大学无人驾驶团队创始人,主攻深度学习,无人驾驶汽车方向,著有《无人驾驶原理与实践》一书。
已标记关键词 清除标记
相关推荐
©️2020 CSDN 皮肤主题: 大白 设计师:CSDN官方博客 返回首页
实付 29.90元
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、C币套餐、付费专栏及课程。

余额充值