从那时起,LSTM 已用于各种任务,包括语音识别、机器翻译和手写识别。LSTM 与其他类型的循环神经网络之间的主要区别在于 LSTM 单元内使用门控。 这些门控制每个时间步有多少信息流入和流出单元状态。这使得 LSTM 能够更好据中存在长期依赖性的情况。这是因为 LSTM 网络还有一种特殊类型的记忆单元,称为“记忆块”,可以长时间保留信息。
LSTM 网络由三个主要组件组成:输入门、输出门和遗忘门。每个巴林资源门都有一个相应的权重矩阵,该权重矩阵是在训练过程中学习到的。 输入门控制当前输入中有多少信息可以进入记忆块。输出门控制记忆块中有多少信息可以传递到下一层或预测。最后,遗忘门控制先前输入中有多少信息会被遗忘或从记忆块中删除。 那么,为什么要把这个神经网络放在这个列表中,而不是其他(更著名和更现代的)替代方案呢?说实话,我对 LSTM 网络情有独钟(它们是我个人的最爱)。
但实际上它还有更多。当你使用你的AI模型时,随着输入更多信息,模型很有可能会忘记。 LSTM 为这个问题提供了解决方案,如上所述,确保关键数据在很长一段时间内保持不变。 生成对抗网络 2014 年,蒙特利尔大学的 Ian Goodfellow 和他的同事向世界介绍了生成对抗网络 (GAN)。GAN 是一种人工智能算法,其中两个神经网络在零和游戏中相互竞争。