创建深度学习模型


我们的神经网络模型将由线性堆栈组成。为了定义这样的模型,我们调用Sequential函数 -

model = Sequential()

输入层

我们使用以下程序语句定义输入层,这是我们网络中的第一层 -

model.add(Dense(512, input_shape=(784,)))

这将创建一个包含 512 个节点(神经元)和 784 个输入节点的层。如下图所示 -

输入层

请注意,所有输入节点都完全连接到第 1 层,即每个输入节点都连接到第 1 层的所有 512 个节点。

接下来,我们需要为第 1 层的输出添加激活函数。我们将使用 ReLU 作为激活函数。使用以下程序语句添加激活函数 -

model.add(Activation('relu'))

接下来,我们使用以下语句添加 20% 的 Dropout。Dropout 是一种用于防止模型过度拟合的技术。

model.add(Dropout(0.2))

至此,我们的输入层已完全定义。接下来,我们将添加一个隐藏层。

隐藏层

我们的隐藏层将由 512 个节点组成。隐藏层的输入来自我们之前定义的输入层。所有节点都像之前的情况一样完全连接。隐藏层的输出将进入网络中的下一层,这将是我们的最终层和输出层。我们将使用与前一层相同的 ReLU 激活和 20% 的 dropout。添加该层的代码如下 -

model.add(Dense(512))
model.add(Activation('relu'))
model.add(Dropout(0.2))

此阶段的网络可以可视化如下 -

输入层

接下来,我们将最后一层添加到网络中,即输出层。请注意,您可以使用与此处使用的代码类似的代码添加任意数量的隐藏层。添加更多层会使网络训练变得复杂;然而,在许多情况下(但不是全部),提供更好结果的明确优势。

输出层

输出层仅包含 10 个节点,因为我们希望将给定图像分类为 10 个不同的数字。我们使用以下语句添加这一层 -

model.add(Dense(10))

由于我们想要将输出分类为 10 个不同的单元,因此我们使用 softmax 激活。对于 ReLU,输出是二进制的。我们使用以下语句添加激活 -

model.add(Activation('softmax'))

此时,我们的网络可以如下图所示可视化 -

输出层

至此,我们的网络模型已在软件中完全定义。运行代码单元,如果没有错误,您将在屏幕上收到一条确认消息,如下面的屏幕截图所示 -

网络模型

接下来,我们需要编译模型。