TensorFlow - 卷积神经网络
-
简述
在理解机器学习概念之后,我们现在可以将注意力转移到深度学习概念上。深度学习是机器学习的一个分支,被认为是近几十年来研究人员采取的关键步骤。深度学习实现的例子包括图像识别和语音识别等应用。以下是两种重要类型的深度神经网络 -- 卷积神经网络
- 循环神经网络
在本章中,我们将重点介绍 CNN,即卷积神经网络。 -
卷积神经网络
卷积神经网络旨在通过多层阵列处理数据。这种类型的神经网络用于图像识别或人脸识别等应用。CNN 与其他任何普通神经网络的主要区别在于,CNN 将输入作为二维数组,直接对图像进行操作,而不是其他神经网络专注于特征提取。CNN 的主要方法包括解决识别问题。谷歌和 Facebook 等顶级公司已经投资于识别项目的研发,以更快地完成活动。卷积神经网络使用三个基本思想 -- 当地各领域
- 卷积
- 池化
让我们详细了解这些想法。CNN 利用输入数据中存在的空间相关性。神经网络的每个并发层都连接一些输入神经元。这个特定区域称为局部感受野。局部感受野集中在隐藏的神经元上。隐藏神经元处理上述字段内的输入数据,并没有意识到特定边界外的变化。以下是生成本地各个字段的图表表示 -如果我们观察上述表示,每个连接都会学习隐藏神经元的权重,并与从一层到另一层的移动相关联。在这里,单个神经元不时地执行转换。这个过程称为“卷积”。从输入层到隐藏特征图的连接映射被定义为“共享权重”,包含的偏差称为“共享偏差”。CNN 或卷积神经网络使用池化层,这些层位于 CNN 声明之后。它将用户的输入作为来自卷积网络的特征图,并准备一个浓缩的特征图。池化层有助于使用前一层的神经元创建层。 -
CNN的TensorFlow实现
在本节中,我们将了解 CNN 的 TensorFlow 实现。需要整个网络的执行和适当维度的步骤如下所示 -步骤 1 − 包括计算 CNN 模型所需的 TensorFlow 和数据集模块所需的模块。步骤 2 - 声明一个函数调用 run_cnn(),其中包括各种参数和优化变量以及数据占位符的声明。这些优化变量将声明训练模式。步骤 3 - 在这一步中,我们将使用输入参数声明训练数据占位符 - 28 x 28 像素 = 784。这是从 mnist.train.nextbatch().我们可以根据我们的要求重塑张量。第一个值 (-1) 告诉函数根据传递给它的数据量动态调整该维度。中间的两个尺寸设置为图像大小(即 28 x 28)。步骤 4 - 现在创建一些卷积层很重要 -步骤 5- 让我们为完全连接的输出阶段准备好输出 - 经过两层步长 2 池化,尺寸为 28 x 28,尺寸为 14 x 14 或最小 7 x 7 x,y 坐标,但具有 64输出通道。要创建完全连接的“密集”层,新形状需要为 [-1, 7 x 7 x 64]。我们可以为这一层设置一些权重和偏置值,然后用 ReLU 激活。步骤 6 - 具有特定 softmax 激活和所需优化器的另一层定义了准确性评估,这使得初始化算子的设置。步骤 7- 我们应该设置记录变量。这会添加一个摘要来存储数据的准确性。以下是上述代码生成的输出 -