关联记忆网络


这些类型的神经网络在模式关联的基础上工作,这意味着它们可以存储不同的模式,并且在给出输出时,它们可以通过将它们与给定的输入模式匹配来产生存储的模式之一。这些类型的存储器也称为内容可寻址存储器(CAM)。关联存储器将存储的模式作为数据文件进行并行搜索。

以下是我们可以观察到的两种类型的联想记忆 -

  • 自动联想记忆
  • 异质联想记忆

自动联想记忆

这是一个单层神经网络,其中输入训练向量和输出目标向量相同。确定权重以便网络存储一组模式。

建筑学

如下图所示,自联想记忆网络的架构具有“n”个输入训练向量和类似的“n”个输出目标向量。

自动联想记忆

训练算法

对于训练,该网络使用 Hebb 或 Delta 学习规则。

步骤 1 - 将所有权重初始化为零,即w ij = 0(i = 1 到 n,j = 1 到 n)

步骤 2 - 对每个输入向量执行步骤 3-4。

步骤 3 - 按如下方式激活每个输入单元 -

$$x_{i}\:=\:s_{i}\:(i\:=\:1\:到\:n)$$

步骤 4 - 激活每个输出单元如下 -

$$y_{j}\:=\:s_{j}\:(j\:=\:1\:到\:n)$$

步骤 5 - 调整权重如下 -

$$w_{ij}(新)\:=\:w_{ij}(旧)\:+\:x_{i}y_{j}$$

测试算法

步骤 1 - 设置赫布规则训练期间获得的权重。

步骤 2 - 对每个输入向量执行步骤 3-5。

步骤 3 - 将输入单元的激活设置为等于输入向量的激活。

步骤 4 - 计算每个输出单元j = 1 到 n 的净输入

$$y_{inj}\:=\:\displaystyle\sum\limits_{i=1}^n x_{i}w_{ij}$$

步骤 5 - 应用以下激活函数来计算输出

$$y_{j}\:=\:f(y_{inj})\:=\:\begin{cases}+1 & if\:y_{inj}\:>\:0\\-1 & if \:y_{inj}\:\leqslant\:0\end{案例}$$

异质联想记忆

与自动联想记忆网络类似,这也是一个单层神经网络。然而,在该网络中,输入训练向量和输出目标向量并不相同。确定权重以便网络存储一组模式。异质关联网络本质上是静态的,因此不会有非线性和延迟操作。

建筑学

如下图所示,Hetero Associative Memory 网络的架构有“n”个输入训练向量和“m”个输出目标向量。

异质联想记忆

训练算法

对于训练,该网络使用 Hebb 或 Delta 学习规则。

步骤 1 - 将所有权重初始化为零,即w ij = 0(i = 1 到 n,j = 1 到 m)

步骤 2 - 对每个输入向量执行步骤 3-4。

步骤 3 - 按如下方式激活每个输入单元 -

$$x_{i}\:=\:s_{i}\:(i\:=\:1\:到\:n)$$

步骤 4 - 激活每个输出单元如下 -

$$y_{j}\:=\:s_{j}\:(j\:=\:1\:到\:m)$$

步骤 5 - 调整权重如下 -

$$w_{ij}(新)\:=\:w_{ij}(旧)\:+\:x_{i}y_{j}$$

测试算法

步骤 1 - 设置赫布规则训练期间获得的权重。

步骤 2 - 对每个输入向量执行步骤 3-5。

步骤 3 - 将输入单元的激活设置为等于输入向量的激活。

步骤 4 - 计算每个输出单元的净输入j = 1 到 m;

$$y_{inj}\:=\:\displaystyle\sum\limits_{i=1}^n x_{i}w_{ij}$$

步骤 5 - 应用以下激活函数来计算输出

$$y_{j}\:=\:f(y_{inj})\:=\:\begin{cases}+1 & if\:y_{inj}\:>\:0\\0 & if\ :y_{inj}\:=\:0\\-1 & if\:y_{inj}\:<\:0\end{cases}$$