不懂卷积神经网络?读完这一篇内容你就明白了

不懂卷积神经网络?读完这一篇内容你就明白了CNN是一种神经网络技术,它已深刻地影响了计算机视觉领域。Fukushima引入了卷积神经网络的原始概念,LeCun、Bottou、Bengio

欢迎大家来到IT世界,在知识的湖畔探索吧!

CNN是一种神经网络技术,它已深刻地影响了计算机视觉领域。Fukushima(1980)引入了卷积神经网络的原始概念,LeCun、Bottou、Bengio和Haffner(1998)大大改进了这个概念。通过这项研究,Yann LeCun引入了著名的LeNet-5神经网络架构。本章介绍具有LeNet-5风格的卷积神经网络。

尽管主要是在计算机视觉领域使用CNN,但该技术在这个领域之外也有一些应用。你需要认识到,如果要在非可视数据上使用CNN,则必须找到一种对数据进行编码的方法,让它可以模拟可视数据的属性。

CNN有点类似于我们在第2章“自组织映射”中讨论的SOM。向量元素的顺序对训练至关重要。相比之下,大多数不是CNN或SOM的神经网络都将其输入数据看成值的长向量,在这个向量中传入特征的排列顺序是无关紧要的。对于这些类型的神经网络,训练神经网络后就无法更改传入特征的排列顺序。换言之,CNN和SOM不遵循输入向量的标准处理。

SOM将输入排列成网格。这种安排对图像效果很好,因为互相邻近的像素对彼此很重要。显然,图像中像素的顺序很重要。人体就是这类顺序的一个相关例子——对于脸部的设计,我们习惯于眼睛彼此靠近。同样地,类似SOM的神经网络坚持这样的像素顺序。因此,它们在计算机视觉领域中有许多应用。

尽管SOM和CNN相似,都采用了将输入映射到2D网格,甚至更高维度的对象(如3D盒子)的方式,但CNN将图像识别提升到了更高的水平。CNN的这一进步缘于对生物眼睛的多年研究。换言之,CNN利用重叠的输入视野(field)来模拟生物眼睛的特征。在这项突破之前,人工智能一直无法复制生物视觉的功能。

过去,缩放、旋转和噪声为AI计算机视觉研究带来了挑战。在下面的例子中,你可以看到生物眼睛的复杂性。一个朋友举起一张纸,上面写着一个很大的数字。当你的朋友离你越来越近时,这个数字仍然可以被识别。当你的朋友旋转纸张时,你仍然可以识别该数字。最后,你的朋友通过在纸上画上线条,产生噪声,你仍然可以识别该数字。如你所见,这些例子演示了生物眼睛的高级功能,让你可以更好地了解CNN的研究突破。也就是说,在计算机视觉领域,该神经网络能处理缩放、旋转和噪声。

10.1 LeNet-5

我们可以将LeNet-5架构用于图形、图像的分类。采用这种架构的神经网络类似于我们在前几章中讨论的前馈神经网络。数据从输入流向输出。但是,LeNet-5神经网络包含几种不同的层类型,如图10-1所示。

不懂卷积神经网络?读完这一篇内容你就明白了

图10-1 LeNet-5神经网络[1]

前馈神经网络和LeNet-5神经网络之间存在几个重要区别。

  • 前馈神经网络传递向量,LeNet-5神经网络传递3D立方体数据集。
  • LeNet-5神经网络包含多种层类型。
  • 计算机视觉是LeNet-5的主要应用。

我们也探讨了这些网络之间的许多相似之处。最重要的相似之处在于,我们可以使用相同的基于反向传播的技术来训练LeNet-5。所有优化算法都可以训练前馈或LeNet-5神经网络的权重。具体来说,你可以使用模拟退火、遗传算法和粒子群优化进行训练。LeNet-5经常使用反向传播训练。

以下三种类型的层构成了最初的LeNet-5神经网络:

  • 卷积层;
  • 最大池层;
  • 稠密层。

其他神经网络框架会添加与计算机视觉有关的其他层类型。但是,我们不会探讨超出LeNet-5以外的内容。添加新的层类型是扩大现有神经网络研究的一种常用方法。第12章“Dropout和正则化”将介绍一种附加的层类型,该类型旨在通过添加一个Dropout层来减少过拟合。

现在,我们将讨论集中在与CNN相关的层类型上。我们从卷积层开始。

10.2 卷积层

我们要探讨的第一层是卷积层。我们从一些超参数开始,它们是在支持CNN的大多数神经网络框架中必须为卷积层指定的:

  • 滤波器(filter)数量;
  • 滤波器大小;
  • 卷积步长(stride);
  • 填充(padding);
  • 激活函数/非线性。

卷积层的主要目的是检测特征,如边缘、线条、颜色斑点和其他视觉元素。滤波器可以检测到这些特征。我们为卷积层提供的滤波器越多,它可以检测到的特征就越多。

滤波器是扫描图像的方形对象。较小的网格可以代表网格的各个像素。你可以将卷积层视为一个较小的网格,它在图像的每一行上从左向右扫描。还有一个超参数可以指定方形滤波器的宽度和高度。图10-1展示了这个配置,其中你可以看到6个卷积滤波器扫描图像网格。

卷积层与它的上一层(即图像网格)之间具有权重。每个卷积层上的每个像素都是一个权重。因此,卷积层与其上一层(即图像视野)之间的权重数如下:

[Filter Size] * [Filter Size] * [Number of Filters]

欢迎大家来到IT世界,在知识的湖畔探索吧!

如果10个滤波器的尺寸都为5(即代表5×5),则共有250个权重。

你需要理解卷积滤波器如何扫描上一层的输出或图像网格。图10-2展示了一个卷积滤波器。

不懂卷积神经网络?读完这一篇内容你就明白了

图10-2 卷积滤波器

图10-2展示的卷积滤波器,大小为4,填充大小为1。填充大小决定了滤波器扫描区域中的零边界。即使图像实际大小为8×7,额外的填充也为滤波器扫描提供了9×8的虚拟图像大小。步长指定卷积滤波器每次扫描将停在什么位置。卷积滤波器向右移动,按步长中指定的单元格数前进。一旦到达最右边,卷积滤波器将移回最左边,然后向下移动一个步长,然后再次向右移动。

上述过程存在与步长大小相关的一些限制。显然,步长不能为0。如果将步长设置为0,则卷积滤波器将永远不会移动。此外,步长和卷积滤波器的大小都不能大于前面的网格。对于宽度为

不懂卷积神经网络?读完这一篇内容你就明白了

的图像,步长

不懂卷积神经网络?读完这一篇内容你就明白了

、填充

不懂卷积神经网络?读完这一篇内容你就明白了

和滤波器宽度

不懂卷积神经网络?读完这一篇内容你就明白了

还有其他限制。具体来说,卷积滤波器必须能从最左上的边界开始,移动一定步长,然后到达最右下的边界。公式10-1展示了卷积滤波器穿过图像必须走的步数:

不懂卷积神经网络?读完这一篇内容你就明白了

(10-1)

步数必须是整数。换言之,它不能有小数位。调整填充(

不懂卷积神经网络?读完这一篇内容你就明白了

)的目的是使公式10-1得到整数结果。

当卷积滤波器扫描图像时,我们可以使用相同的权重集。这个过程允许卷积层共享权重,并大大减少所需的处理量。这样,你就可以在一系列移动的位置上识别图像,因为相同的卷积滤波器会扫描整个图像。

卷积层的输入和输出都是3D盒子。对于卷积层的输入,盒子的宽度和高度等于输入图像的宽度和高度,盒子的深度等于图像的颜色深度。对于RGB图像,深度为3,即红色、绿色和蓝色的分量。如果卷积层的输入是另一层,那么它也是3D盒子,但是,该3D盒子的大小将取决于该层的超参数。

和神经网络中的所有其他层一样,卷积层输出的3D盒子的大小由该层的超参数决定。盒子的宽度和高度均等于滤波器大小,深度等于滤波器的数量。

10.3 最大池层

最大池层将3D盒子缩小采样(downsample)为更小的新盒子。通常,总是可以在卷积层之后立即放置一个最大池层。图10-1展示了紧接在C1和C3层之后的最大池层。这些最大池层逐渐缩小了穿过它们的3D盒子的大小。这种技术可以避免过拟合[2]。

池化层具有以下超参数:

  • 空间范围();
  • 步长()。

与卷积层不同,最大池层不使用填充。此外,最大池层没有权重,因此训练不会影响它们。这些层仅对3D盒子输入进行缩小采样。

最大池层生成的3D盒子的宽度的计算如公式10-2所示:

不懂卷积神经网络?读完这一篇内容你就明白了

(10-2)

最大池层生成的3D盒子的高度的计算与公式10-2类似:

不懂卷积神经网络?读完这一篇内容你就明白了

(10-3)

最大池层生成的3D盒子的深度,等于输入接收的3D盒子的深度。

最大池层超参数最常见的设置是

不懂卷积神经网络?读完这一篇内容你就明白了

= 2和

不懂卷积神经网络?读完这一篇内容你就明白了

= 2。空间范围(

不懂卷积神经网络?读完这一篇内容你就明白了

)指定将2×2的盒子缩小为单个像素。在这4个像素中,具有最大值的像素将在新网格中代表2×2的单个像素。由于大小为4的正方形被大小为1的正方形替代,因此丢失了75%的像素信息。图10-3展示了这种转换,6×6的网格变为3×3的网格。

不懂卷积神经网络?读完这一篇内容你就明白了

图10-3 最大池化(f = 2、s = 2)

当然,图10-3将每个像素显示为单个数字。灰度图像具有这种特征。对于RGB图像,我们通常取3个数字的平均值,以确定哪个像素具有最大值。

10.4 稠密层

LeNet-5神经网络中的最后一个层是稠密层(dense layer)。该层类型与我们在前馈神经网络中看到的层类型完全相同。稠密层将上一层输出的3D盒子中的每个元素(神经元)连接到稠密层中的每个神经元,对生成的向量使用激活函数。LeNet-5神经网络通常使用ReLU激活函数。我们也可以用S型激活函数,尽管这种技术不太常见。稠密层通常包含以下超参数:

  • 神经元计数;
  • 激活函数。

神经元计数指定组成该层的神经元数。激活函数指示要使用的激活函数的类型。稠密层可以采用许多不同种类的激活函数,如ReLU、S型或双曲正切激活函数。

LeNet-5神经网络通常会包含几个稠密层作为其最终层。LeNet-5中的最后一个稠密层实际上执行了分类。每个类别或图像类型应有一个输出神经元进行分类。如果神经网络用于区分狗、猫和鸟,就会有3个输出神经元。你可以将一个最终的Softmax函数应用于最终层,将输出神经元视为概率。Softmax允许每个神经元提供图像代表每个类别的概率。由于现在输出的神经元是概率,因此Softmax确保它们的总和为1(100%)。要复习Softmax,你可以阅读第4章“前馈神经网络”。

10.5 针对MNIST数据集的卷积神经网络

在第6章“反向传播训练”中,我们使用MNIST手写数字作为使用反向传播的示例。在本节中,我们将举一个改进MNIST手写数字识别的例子,建立一个深度卷积神经网络。卷积神经网络是一种深度神经网络,其层数比第4章中的前馈神经网络要多。该神经网络的超参数如下。

  • 输入:接受[1,96,96]的盒子。
  • 卷积层:滤波器= 32,滤波器大小= [3,3]。
  • 最大池层:[2,2]。
  • 卷积层:滤波器= 64,滤波器大小= [2,2]。
  • 最大池层:[2,2]。
  • 卷积层:滤波器= 128,滤波器大小= [2,2]。
  • 最大池层:[2,2]。
  • 稠密层:500个神经元。
  • 输出层:30个神经元。

该神经网络使用非常常见的模式,每个卷积层之后跟一个最大池层。另外,滤波器的数量从输入层到输出层逐渐递增,从而允许在输入视野附近检测到较少数量的基本特征,如边缘、线条和小形状等。连续的卷积层将这些基本特征汇总为更大、更复杂的特征。最终,稠密层可以将这些高级特征映射到实际15位特征的每个

不懂卷积神经网络?读完这一篇内容你就明白了

坐标和

不懂卷积神经网络?读完这一篇内容你就明白了

坐标。

训练卷积神经网络需要花费大量时间,尤其当你不使用GPU处理时。截至2015年7月,并非所有框架都对GPU处理提供同样的支持。目前,将Python与基于Theano的神经网络框架(如Lasagne)结合使用可提供最佳结果。许多正在改进深度卷积神经网络的研究人员也正在与Theano合作。因此,Theano很可能会先于其他语言的其他框架对GPU处理提供支持。

在这个示例中,我们结合使用了Theano与Lasagne。本书的示例下载可能还会有针对该示例的其他语言版本,具体取决于这些语言的可用框架。在GPU上训练基于Theano的卷积神经网络来进行数字特征识别,所需的时间少于在CPU上训练的时间,因为GPU对卷积神经网络帮助极大。具体的性能提升根据硬件和平台而有所不同。卷积神经网络和常规ReLU神经网络之间的精确性比较如下:

欢迎大家来到IT世界,在知识的湖畔探索吧!ReLU:
Best valid loss was 0.068229 at epoch 17.
Incorrect 170/10000 (1.7000000000000002%)
ReLU+Conv:
Best valid loss was 0.065753 at epoch 3.
Incorrect 150/10000 (1.5%)

如果将卷积神经网络的结果与第4章中的标准前馈神经网络进行比较,你会发现卷积神经网络的表现更好。卷积神经网络能够识别数字中的子特征,从而让它的表现超过标准前馈神经网络。当然,这些结果会有所不同,具体取决于所使用的平台。

10.6 本章小结

卷积神经网络是在计算机视觉中应用非常广泛的技术。它们让神经网络能够检测要素的层次结构,如由线条和小形状等简单的特征形成的层次结构,从而教会神经网络识别由更简单的特征组成的复杂模式。深度卷积神经网络会占用相当大的处理能力。一些框架允许使用GPU处理来增强性能。

Yann LeCun推出了最常见的卷积神经网络LeNet-5。这种神经网络由稠密层、卷积层和最大池层组成。稠密层的工作方式与传统前馈神经网络完全相同,最大池层可以对图像进行缩小采样并去除细节,卷积层检测图像视野中任何部分的特征。

为神经网络确定最佳架构的方法有很多。第8章“NEAT、CPPN和HyperNEAT”介绍了一种神经网络算法,该算法可以自动确定最佳架构。如果使用前馈神经网络,则很可能会通过剪枝和模型选择来确定架构,我们将在第11章中进行讨论。

本文摘自《人工智能算法 卷3 深度学习和神经网络(全彩印刷)》

不懂卷积神经网络?读完这一篇内容你就明白了

  • AI算法入门教程,算法导论,实例讲解人工智能基础算法!
  • 丰富的示例代码和在线资源,提供在线实验环境,代码下载,方便动手实践与拓展学习

本书探讨神经网络,以及如何训练、查询、构建和解释神经网络。我们介绍许多神经网络架构,以及可以训练这些神经网络的大量算法。训练是一个过程,在这个过程中,神经网络不断调整,实现根据数据进行预测的目标。

深度学习是用于多层神经网络的相对较新的一组训练技术,也是一个主要主题。它包含几种算法,可以训练复杂类型的神经网络。随着深度学习的发展,我们现在有了一些有效的方法来训练多层神经网络。

在本书中,我们将演示各种现实世界任务中的神经网络,例如图像识别和数据科学。我们研究了当前的神经网络技术,包括ReLU 激活、随机梯度下降、交叉熵、正则化、Dropout 及可视化等。

免责声明:本站所有文章内容,图片,视频等均是来源于用户投稿和互联网及文摘转载整编而成,不代表本站观点,不承担相关法律责任。其著作权各归其原作者或其出版社所有。如发现本站有涉嫌抄袭侵权/违法违规的内容,侵犯到您的权益,请在线联系站长,一经查实,本站将立刻删除。 本文来自网络,若有侵权,请联系删除,如若转载,请注明出处:https://itzsg.com/34280.html

(0)

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

联系我们YX

mu99908888

在线咨询: 微信交谈

邮件:itzsgw@126.com

工作时间:时刻准备着!

关注微信