This repository has been archived on 2020-04-25. You can view files and clone it, but cannot push or open issues or pull requests.
ml/nn/rnn.md
2020-04-25 16:45:19 +08:00

1.6 KiB
Raw Blame History

循环神经网络

RNN结构

RNN结构如下

rnn

  • 左侧是RNN的原始结构 右侧是RNN在时间上展开的结果
  • RNN的结构本质上和全连接网络相同

rnn

LSTM 网络

LSTM 同样是这样的结构,但是重复的模块拥有一个不同的结构。不同于单一神经网络层,这里是有四个,以一种非常特殊的方式进行交互。

SLTM

遗忘门

在我们 LSTM 中的第一步是决定我们会从细胞状态中丢弃什么信息。这个决定通过一个称为忘记门层完成。该门会读取ht1和xt输出一个在 0到 1之间的数值给每个在细胞状态 Ct1 中的数字。1 表示“完全保留”0 表示“完全舍弃”。

遗忘门

输入门

我们把旧状态与ft相乘丢弃掉我们确定需要丢弃的信息。接着加上itC~t。这就是新的候选值根据我们决定更新每个状态的程度进行变化。

输入门

输出门

在语言模型的例子中,因为他就看到了一个 代词,可能需要输出与一个 动词 相关的信息。例如,可能输出是否代词是单数还是负数,这样如 果是动词的话,我们也知道动词需要进行的词形变化。

输出门