- 微软认知工具包(CNTK)教程
- 家
- 介绍
- 入门
- CPU和GPU
- CNTK-序列分类
- CNTK - 逻辑回归模型
- CNTK - 神经网络 (NN) 概念
- CNTK - 创建第一个神经网络
- CNTK - 训练神经网络
- CNTK - 内存中和大型数据集
- CNTK - 测量性能
- 神经网络分类
- 神经网络二元分类
- CNTK - 神经网络回归
- CNTK - 分类模型
- CNTK - 回归模型
- CNTK - 内存不足的数据集
- CNTK - 监控模型
- CNTK - 卷积神经网络
- CNTK - 循环神经网络
- Microsoft 认知工具包资源
- Microsoft 认知工具包 - 快速指南
- Microsoft 认知工具包 - 资源
- Microsoft 认知工具包 - 讨论
CNTK - 训练神经网络
在这里,我们将了解如何在 CNTK 中训练神经网络。
在 CNTK 中训练模型
在上一节中,我们定义了深度学习模型的所有组件。现在是时候训练它了。正如我们之前讨论的,我们可以结合使用learner和trainer在 CNTK 中训练 NN 模型。
选择学习者并设置培训
在本节中,我们将定义学习者。CNTK 提供了多种学习器可供选择。对于我们在前面部分中定义的模型,我们将使用随机梯度下降(SGD)学习器。
为了训练神经网络,让我们在以下步骤的帮助下配置学习器和训练器-
步骤 1 - 首先,我们需要从cntk.lerners包中导入sgd函数。
from cntk.learners import sgd
步骤 2 - 接下来,我们需要从cntk.train .trainer 包中导入Trainer函数。
from cntk.train.trainer import Trainer
步骤 3 - 现在,我们需要创建一个学习者。它可以通过调用sgd函数并提供模型参数和学习率值来创建。
learner = sgd(z.parametrs, 0.01)
步骤 4 - 最后,我们需要初始化训练器。必须提供网络、损失和度量的组合以及学习器。
trainer = Trainer(z, (loss, error_rate), [learner])
控制优化速度的学习率应该是 0.1 到 0.001 之间的小数字。
选择学习者并设置培训 - 完整示例
from cntk.learners import sgd from cntk.train.trainer import Trainer learner = sgd(z.parametrs, 0.01) trainer = Trainer(z, (loss, error_rate), [learner])
将数据输入训练器
一旦我们选择并配置了训练器,就可以加载数据集了。我们已将iris数据集保存为 . CSV文件,我们将使用名为pandas的数据整理包来加载数据集。
从 .CSV 文件加载数据集的步骤
步骤 1 - 首先,我们需要导入pandas包。
from import pandas as pd
步骤 2 - 现在,我们需要调用名为read_csv的函数来从磁盘加载 .csv 文件。
df_source = pd.read_csv(‘iris.csv’, names = [‘sepal_length’, ‘sepal_width’, ‘petal_length’, ‘petal_width’, index_col=False)
加载数据集后,我们需要将其拆分为一组特征和一个标签。
将数据集拆分为特征和标签的步骤
步骤 1 - 首先,我们需要从数据集中选择所有行和前四列。可以使用iloc函数来完成。
x = df_source.iloc[:, :4].values
步骤 2 - 接下来我们需要从 iris 数据集中选择物种列。我们将使用values属性来访问底层的numpy数组。
x = df_source[‘species’].values
将物种列编码为数字向量表示的步骤
正如我们之前讨论的,我们的模型基于分类,它需要数字输入值。因此,这里我们需要将物种列编码为数字向量表示。让我们看看执行步骤 -
步骤 1 - 首先,我们需要创建一个列表表达式来迭代数组中的所有元素。然后在 label_mapping 字典中查找每个值。
label_mapping = {‘Iris-Setosa’ : 0, ‘Iris-Versicolor’ : 1, ‘Iris-Virginica’ : 2}
步骤 2 - 接下来,将转换后的数值转换为 one-hot 编码向量。我们将使用one_hot函数,如下所示 -
def one_hot(index, length): result = np.zeros(length) result[index] = 1 return result
步骤 3 - 最后,我们需要将转换后的列表转换为numpy数组。
y = np.array([one_hot(label_mapping[v], 3) for v in y])
检测过度拟合的步骤
当您的模型记住样本但无法从训练样本中推断出规则时,这种情况就是过度拟合。借助以下步骤,我们可以检测模型的过度拟合 -
步骤 1 - 首先,从sklearn包中,从model_selection模块导入train_test_split函数。
from sklearn.model_selection import train_test_split
步骤 2 - 接下来,我们需要使用特征 x 和标签 y 调用 train_test_split 函数,如下 -
x_train, x_test, y_train, y_test = train_test_split(X, y, test_size=0-2, stratify=y)
我们将 test_size 指定为 0.2,以留出总数据的 20%。
label_mapping = {‘Iris-Setosa’ : 0, ‘Iris-Versicolor’ : 1, ‘Iris-Virginica’ : 2}
将训练集和验证集提供给我们的模型的步骤
步骤 1 - 为了训练我们的模型,首先,我们将调用train_minibatch方法。然后给它一个字典,将输入数据映射到我们用来定义神经网络及其相关损失函数的输入变量。
trainer.train_minibatch({ features: X_train, label: y_train})
步骤 2 - 接下来,使用以下 for 循环调用train_minibatch -
for _epoch in range(10): trainer.train_minbatch ({ feature: X_train, label: y_train}) print(‘Loss: {}, Acc: {}’.format( trainer.previous_minibatch_loss_average, trainer.previous_minibatch_evaluation_average))
将数据输入训练器 - 完整示例
from import pandas as pd df_source = pd.read_csv(‘iris.csv’, names = [‘sepal_length’, ‘sepal_width’, ‘petal_length’, ‘petal_width’, index_col=False) x = df_source.iloc[:, :4].values x = df_source[‘species’].values label_mapping = {‘Iris-Setosa’ : 0, ‘Iris-Versicolor’ : 1, ‘Iris-Virginica’ : 2} def one_hot(index, length): result = np.zeros(length) result[index] = 1 return result y = np.array([one_hot(label_mapping[v], 3) for v in y]) from sklearn.model_selection import train_test_split x_train, x_test, y_train, y_test = train_test_split(X, y, test_size=0-2, stratify=y) label_mapping = {‘Iris-Setosa’ : 0, ‘Iris-Versicolor’ : 1, ‘Iris-Virginica’ : 2} trainer.train_minibatch({ features: X_train, label: y_train}) for _epoch in range(10): trainer.train_minbatch ({ feature: X_train, label: y_train}) print(‘Loss: {}, Acc: {}’.format( trainer.previous_minibatch_loss_average, trainer.previous_minibatch_evaluation_average))
衡量神经网络的性能
为了优化我们的神经网络模型,每当我们通过训练器传递数据时,它都会通过我们为训练器配置的指标来衡量模型的性能。训练期间神经网络模型性能的这种衡量是在训练数据上进行的。但另一方面,为了对模型性能进行全面分析,我们还需要使用测试数据。
因此,为了使用测试数据测量模型的性能,我们可以在训练器上调用test_minibatch方法,如下所示 -
trainer.test_minibatch({ features: X_test, label: y_test})
使用 NN 进行预测
一旦训练了深度学习模型,最重要的是使用它进行预测。为了从上面训练的神经网络进行预测,我们可以遵循给定的步骤 -
步骤 1 - 首先,我们需要使用以下函数从测试集中选择一个随机项目 -
np.random.choice
步骤2 - 接下来,我们需要使用sample_index从测试集中选择样本数据。
步骤 3 - 现在,为了将 NN 的数字输出转换为实际标签,请创建一个反向映射。
步骤 4 - 现在,使用选定的样本数据。通过调用 NN z 作为函数来进行预测。
步骤 5 - 现在,一旦获得预测输出,就将具有最高值的神经元的索引作为预测值。可以通过使用numpy包中的np.argmax函数来完成。
步骤 6 - 最后,使用inverted_mapping将索引值转换为真实标签。
使用 NN 进行预测 - 完整示例
sample_index = np.random.choice(X_test.shape[0]) sample = X_test[sample_index] inverted_mapping = { 1:’Iris-setosa’, 2:’Iris-versicolor’, 3:’Iris-virginica’ } prediction = z(sample) predicted_label = inverted_mapping[np.argmax(prediction)] print(predicted_label)
输出
训练上述深度学习模型并运行后,您将得到以下输出 -
Iris-versicolor